1. トップ
  2. 新着ニュース
  3. 経済
  4. 経済

オープンAIなど、生成AI開発で人間に近い訓練技術を採用 遅れや課題の克服で

ロイター / 2024年11月12日 7時44分

 11月11日、米オープンAIなどの生成人工知能(AI)を開発する企業は、アルゴリズムが 「考える」ためにより人間に近い方法を使った訓練技術を開発している。2023年2月撮影(2024年 ロイター/Dado Ruvic)

Krystal Hu Anna Tong

[11日 ロイター] - 米オープンAIなどの生成人工知能(AI)を開発する企業は、アルゴリズムが 「考える」ためにより人間に近い方法を使った訓練技術を開発している。これにより、従来を上回る大規模言語モデルを追求する際の予期せぬ遅れや、課題を克服することを目指している。

10人を超えるAI科学者や研究者、投資家はロイターに対し、オープンAIが最近リリースした大規模言語モデル「o1」の背景にある技術はAIツールの競争を再定義する可能性があると指摘した。エネルギーから半導体の種類に至るまで、AI企業が飽くなき要求をするリソースの種類に影響を及ぼすとの見方を示した。

2年前に「チャットGPT」が流行後、AIブームで大きな利益を得ているIT企業は、データやコンピューターの性能を引き上げて現在のモデルを「スケールアップ」すればAIモデルは改善し続けると公言してきた。

しかし今となっては、最も著名なAI科学者らの一部がこのような「大は小を兼ねる」という哲学の限界に言及している。

オープンAI共同創業者のイリヤ・サツキバー氏はロイターに対して最近、言語パターンと構造を理解するためにラベル付けされていない膨大なデータを使ってAIモデルを訓練する段階の「事前訓練」の規模拡大による結果が頭打ちになっていると説明した。

サツキバー氏は「2010年代はスケーリングの時代だったが、今や驚きと発見の時代に再び戻った。誰もが次のものを探している」とし、「正しいことをスケーリングすることは、かつてないほど重要になっている」と語った。

別の問題は大規模言語モデルを手がけることで膨大な量のデータを消費し、AIモデルが世界中のアクセスしやすいデータを使い果たしていることだ。電力不足もまた、膨大な量のデータを必要とする訓練の妨げとなっている。

このような課題を克服するため、研究者らはいわゆる「推論」段階やモデルを使う際に既存のAIモデルを強化する技術の「テストタイム・コンピュート」を模索している。例えば即座に単一の答えを選ぶのではなく、モデルがリアルタイムで複数の可能性を生成、評価することで最終的に最善の方法を選択する方法だ。

この方法を採用すればモデルは数学やコードの問題といった難しい課題や、人間のような推論や意思決定を必要とする複雑な操作により多くの処理能力を割くことができるようになる。

米サンフランシスコで10月に開催された「TED AI会議」で、o1の開発に携わったオープンAIの研究者、ノーム・ブラウン氏は「ポーカーの手をボットに20秒だけ考えさせるだけで、モデルを10万倍にスケールアップし、10万倍の時間を費やして訓練したのと同じだけのパフォーマンスが得られることが分かった」と訴えた。

ロイターが最初に7月報じた通り、オープンAIはo1にこの技術を採用している。

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください