SB Intuitions、4000億クラスのパラメータを持つ日本語LLMを公開
マイナビニュース / 2024年11月12日 10時39分
SB Intuitionsは11月8日、4000億クラスのパラメータを持つ日本語LLM(Large Language Model:大規模言語モデル)「Sarashina2-8x70B」を公開したことを発表した。
今回公開したSarashina2-8x70Bは、 Sarashina2-70Bの開発で得られた知見を元にMoE(Mixture of Experts)により大規模化している。MoEとは複数のエキスパートモデルを組み合わせて、より高い推論精度を実現する枠組み。
今回はSarashina2-70Bのモデルを元にUpcyclingと言われる手法を用い、トランスフォーマーのフィードフォワードネットワーク部において8個のエキスパートモデルを用いて訓練した。これらを組み合わせて、高精度な推論を実現しているという。
同モデルはSB Intuitionsでベンチマークしている複数の日本語の性能テストにおいて、最高性能を実現したとのことだ。同社によると、比較的小さなサイズのMoEモデルが公開されている中で、この規模のMoEモデルの学習成功例は珍しいものだという。
なお、今回公開したモデルは指示チューニングを施していない事前学習モデル。人間の意図に沿った出力を行うようにチューニングを行ったものではないため、そのまま実用的なサービスには使えない。商用利用ができないライセンスとして公開する。
(熊谷知泰)
外部リンク
この記事に関連するニュース
-
共同通信、生成AIで提携 ソフトバンク子会社と
共同通信 / 2024年11月14日 15時36分
-
ソフトバンク、約6000基のNVIDIA製GPUを整備‐国内最大級のAI計算基盤へ
マイナビニュース / 2024年10月31日 17時55分
-
オルツの「LHTM-OPT2」、日本語RAG(検索拡張生成)で軽量型LLMとして世界最高の精度と推論速度を実現
PR TIMES / 2024年10月29日 14時45分
-
オルツの「LHTM-OPT2」、日本語RAG(検索拡張生成)で軽量型LLMとして世界最高の精度と推論速度を実現
共同通信PRワイヤー / 2024年10月29日 11時0分
-
押さえておきたいLLM用語の基礎解説 第3回 学習率・事前学習・クリーニング・ファインチューニング・インストラクションチューニング・プレファレンスチューニング
マイナビニュース / 2024年10月29日 9時0分
ランキング
-
1「スンスンが餌食に」 販売から“全店舗3分で完売”→高額転売で「怒りが込み上げる」 スシロー×人気キャラコラボが物議
ねとらぼ / 2024年11月21日 19時2分
-
2ダイソーの“フィギュアに最適”なアイテムが330万表示 驚きの高品質に「めっちゃいいやん……!」「価格バグってるw」
ねとらぼ / 2024年11月21日 20時0分
-
3イオンカード、不正利用に関するテレビ報道受け声明 「一日も早く安心してもらえる環境整備に努める」
ITmedia NEWS / 2024年11月21日 15時27分
-
4“主人公キャラのいない”ローグライクシューターが早期アクセス開始!AIとなって敵同士を戦わせ道を拓く―採れたて!本日のSteam注目ゲーム11選【2024年11月21日】
Game*Spark / 2024年11月21日 22時30分
-
5原作再現度がハンパない『FF14モバイル』が正式発表! まずは中国からサービス開始へ
ガジェット通信 / 2024年11月21日 22時0分
記事ミッション中・・・
記事にリアクションする
記事ミッション中・・・
記事にリアクションする
エラーが発生しました
ページを再読み込みして
ください