米アマゾン、大規模言語モデルの学習に数百万ドル投資=関係筋
ロイター / 2023年11月8日 15時22分
11月8日、米アマゾン・ドット・コムは大規模言語モデル(LLM)の学習に数百万ドルを投じていると、事情に詳しい関係者2人がロイターに明らかにした。写真はアマゾンのロゴ。昨年11月、仏北部ロウィン・プランクで撮影(2023年 ロイター/Pascal Rossignol)
Krystal Hu
[6日 ロイター] - 米アマゾン・ドット・コムは大規模言語モデル(LLM)の学習に数百万ドルを投じていると、事情に詳しい関係者2人がロイターに明らかにした。オープンAIやアルファベットに対抗する。
コードネーム「Olympus」と呼ばれるこのモデルはパラメーター数が2兆で、現在学習中のモデルの中でも最大級のものになるという。オープンAIの「GPT─4」はパラメーター数が1兆とされる。
アマゾンはコメントを控えた。
LLMの学習のため新設するチームは、音声アシスタント「アレクサ」の元責任者で、汎用人工知能(AI)のヘッドサイエンティストであるロヒト・プラサド氏が指揮を執る。
アマゾンは既に「タイタン」のようなより小型の言語モデルの学習を行っている。また、アンスロピックやAI21ラボといったAIモデルの新興企業と提携している。
この記事に関連するニュース
-
オープンAIが汎用人工知能開発中か、旧Q*の「ストロベリー」
ロイター / 2024年7月15日 19時54分
-
パナソニックHDとストックマーク、国内最大規模(1000億パラメータ)の独自日本語LLM「Panasonic-LLM-100b」開発で協業
PR TIMES / 2024年7月2日 12時45分
-
パナソニックHD、国内最大級の日本語LLMを開発‐パラメータ数は1000億
マイナビニュース / 2024年7月2日 12時15分
-
KDDI×NICT、ハルシネーション抑制やマルチモーダルに対応するLLM研究を開始
マイナビニュース / 2024年7月2日 9時43分
-
ELYZA、「GPT-4」を上回る性能の日本語LLMを開発・公開
PR TIMES / 2024年6月26日 16時45分
ランキング
-
1セルフレジで客が減る? 欧米で「セルフレジ撤去」の動き、日本はどう捉えるべきか
ITmedia ビジネスオンライン / 2024年7月18日 8時10分
-
2電話番号案内「104」終了へ…NTT東・西、スマホ普及で需要落ち込む
読売新聞 / 2024年7月18日 22時18分
-
3電話番号案内104終了へ NTT東西、利用者激減で
共同通信 / 2024年7月18日 21時35分
-
4TBS退職→Netflixと5年契約「50代P」選んだ道 「不適切にもほどがある」「俺の家の話」手掛けた
東洋経済オンライン / 2024年7月18日 12時30分
-
5申請を忘れると年金200万円の損…荻原博子「もらえるものはとことんもらう」ための賢者の知恵
プレジデントオンライン / 2024年7月17日 8時15分
記事ミッション中・・・
記事にリアクションする
![](/pc/img/mission/mission_close_icon.png)
記事ミッション中・・・
記事にリアクションする
![](/pc/img/mission/point-loading.png)
エラーが発生しました
ページを再読み込みして
ください
![](/pc/img/mission/mission_close_icon.png)