1. トップ
  2. 新着ニュース
  3. IT
  4. パソコン

進化が加速した生成AI、競争過熱で"AI版ムーアの法則"に限界説も、2025年はどうなる?

マイナビニュース / 2024年12月31日 13時46分

そこで、リソースの増加に頼るだけではなく、少ないデータや計算リソースで高い性能を発揮できる学習アルゴリズムの開発や、生成データの学習利用、スケーリング則の背後にある理論を解明してより深い理解に基づいたモデル開発など、様々な試みが始まっている。中でも重要なアプローチとなっているのが推論の強化である。推論時(テスト時)の計算リソースを増やすことで、学習済みのモデルを効率的に活用し、性能を引き出す。推論により長い時間をかけるほど、AIの性能が向上するという新たなスケーリング則も提唱されている。

AIモデル開発は新たなフェーズに突入したとも言える。だが、スケーリング則には様々な見方があり、様々な議論が広がっている。今よりAI性能をどの程度高められるのか、推論強化で過去数年の向上ペースを維持できるのか、生成データの学習利用は性能向上維持にも有効なのか、現状では「わからない」という結論に至らざるを得ない。MicrosoftのCTOのケビン・スコット氏は「過去6年間続いてきたことが今後も続く可能性を考慮すべきだ」と述べ、Google共同創業者のセルゲイ・ブリン氏は「現在の学習の傾向を見てそれを盲目的に3桁も先まで適用するのはどうかと思う」と述べている。つまり、開発の最前線を知る当事者でさえ、その先行きは「わからない」のである。
○スケーリング限界の壁は生成AIの未来の分かれ道

生成AIの未来は、従来のスケーリング則が示したペースの性能向上を保てるのか、あるいは限界を迎えるかによって、大きく異なる道筋を辿ることになる。2025年は、まさにその分岐の始まりの年となるだろう。
○[ケース1:性能向上が限界を迎える場合]

すでに成長ペースがピークを超えており、このまま限界を迎えるとしたら、LLMはAPIで利用される機能や技術という役割にとどまることになる。

しかし、これは第3次AIブームの終焉を意味するものではない。かつてタッチスクリーン技術が数多くの革新的なモバイルアプリやサービスを生み出したように、自然な対話能力を持ち、大量のデータを瞬時に検索・活用できるLLMによって、これから実現可能なことは数多く存在する。
○[ケース2:スケーリングが今後も継続する場合]

AIが現在のペースでスケールし続ける場合、LLMはプラットフォームとして多様なタスクを統合的に処理する存在へと進化する可能性がある。すべての機能がLLMに統合され、他のアプリやシステムがAPIとしてその上に存在するという未来像が現実味を帯びてくる。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください