1. トップ
  2. 新着ニュース
  3. 経済
  4. プレスリリース

オルツ、数兆パラメータ規模の大規模言語モデル構築に着手

共同通信PRワイヤー / 2024年4月26日 15時0分

 つまり、LLMの競争においては、モデルの精度や表現力の向上だけでなく、スピードとコストのバランスを取ることが重要です。これらを適切に管理しながら、ユーザにとって実用的なサービスを提供することが求められています。


<根底にあるLLM/GPUのエネルギー問題>

 加えて、LLMの運用とGPUリソースの使用は、大量の電力を消費します。このエネルギー問題は、環境への影響だけでなく、運用コストにも大きく関わってきます。特に、LLMのトレーニングや推論には膨大な計算量が必要で、これを支えるGPUリソースは多くのエネルギーが必要となります。

 地理的な電気代の差異を考慮すると、電力コストが比較的低い地域でのデータセンターの運用が経済的です。このため、リソースの地理的分散化は、エネルギーコストを削減する有効な戦略となります。しかし、これにはデータ転送の遅延や、特定地域の法規制などの課題も伴います。

 一方で、すべてをサーバー側で処理するのではなく、エッジ側(端末側)での処理を行うことによる消費エネルギーの分散も重要です。エッジコンピューティングにより、データ転送の量を減らし、応答時間を短縮することができるので、サーバー側の負担を軽減することで、全体的なエネルギー消費を削減することが可能となります。また、エッジデバイスの進化により、より高度な処理を端末側で行えるようになることも、このアプローチの可能性を広げることができます。

 総じて、LLMとGPUリソースのエネルギー問題に対処するには、電力コストの低い地域へのリソース分散化と、エッジコンピューティングを活用した消費エネルギーの分散が有効な戦略となります。これにより、環境への影響を減らしつつ、運用コストの削減を図ることが可能となります。

 上述の課題意識と現状を踏まえ、当社は、エンドユースケースの最適化を実現するために重要な「クオリティ」「スピード」「コスト」に対して、以下の取り組みを加速いたします。


 ● 学習データ(学習トークン)の大規模な構築

 ● インストラクションデータの構築と自動化

 ● プロンプトエンジニアリングの自動化

 ● 既存モデルの改良に資する生涯学習、メタ認知の研究加速(モデルのリアルタイム継続学習)

 ● 軽量モデルによる大規模モデル同様の出力再現(知的蒸留)に資する研究加速

 ● 量子化導入による推論効率化

 ● メタ認知プロセス導入による推論精度と品質の向上

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください