1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

マイクロソフトが示す“マルチモーダルAI”の可能性、「GPT-4o」が実現する未来の体験とは?

マイナビニュース / 2024年6月28日 10時0分

岡嵜氏は「Copilot+ PCは1秒あたり40兆回もの演算ができる非常にハイスペックなPCだ。そして、ネットワークにつながっていなくてもデバイス上でAIの処理ができ、ユーザーの体験の幅がさらに広がるだろう」と、Windows史上最も高性能なPCに自信をのぞかせた。
「GPT-4」の6倍の性能を持つ新モデルの実力

マイクロソフトは、顧客企業が自身でCopilotを構築できるようにするための支援も強化している。2023年に発表したCopilot の技術スタック「Copilot stack」を通じて、独自のCopilotを作るためのさまざまな機能を提供している。

独自のCopilotを開発するうえで最も重要なのが、AIの核となる「基盤モデル」だ。米OpenAIと強力なパートナーシップを築いているマイクロソフトは「Azure OpenAI Service」を通じて、OpenAIのさまざまな基盤モデルやサービスを提供している。

Microsoft Buildでは、OpenAIの最新のモデル「GPT-4o(フォーオー)」がAzure OpenAI Serviceで利用可能になったと発表された。従来のモデル「GPT-4」と比べて、反応速度が6倍、コストが12分の1になったGPT-4oは、テキストだけでなく、音声や画像を組み合わせて入出力ができるマルチモーダルに対応している。

伊藤忠商事やソフトバンク、JAL、サイバーエージェントといった国内企業もすでに導入しており、「パフォーマンスとコスト効率が最適化され、現実的なコストで導入できるようになった」(岡嵜氏)という。

基調講演では、GPT-4oと連携したビデオゲーム「Minecraft」をプレイするデモが紹介された。ゲームのプレイ中にプレイヤーが音声で「剣の作り方を知りたい」と伝えると、AIは音声で「剣を作るにはいくつかの材料が必要だよ。棒があるね、剣の柄にぴったりだ。でも刃の材料が足りないから集めにいこう」と、プレイ中のゲーム画面の状況に応じて、アドバイスをしていた。

岡嵜氏は「GPT-4oは、音声に加えて、画像や動画を瞬時に処理し状況に即した出力をしてくれる。ゲームでの活用は一例で、今後、マルチモーダルAIのさまざまなユースケースが増えるだろう」と述べた。
基盤モデルの選択肢を拡充、「tsuzumi」の提供も開始

マイクロソフトが提供する基盤モデルは、OpenAI製だけではない。MaaS(Model as a Service)プラットフォームとして、クラウドサービス「Microsoft Azure」上でさまざまな基盤モデルを提供している。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください