1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

rinna、Llama 3に日本語継続事前学習を行った「Llama 3 Youko 8B」公開

マイナビニュース / 2024年5月7日 14時16分

画像提供:マイナビニュース

rinnaは5月7日、80憶パラメータを持つ「Llama 3 8B」に対して日本語データで継続事前学習を行った「Llama 3 Youko 8B」を開発し、Meta Llama 3 Community Licenseで公開したことを発表した。ちなみに、モデル名の由来は妖怪の「妖狐(ようこ)」とのことだ。
○Llama 3 Youko 8Bの特徴

Llama 3 Youko 8Bは80億パラメータのLlama 3 8Bに対して、日本語と英語の学習データ220億トークンを用いて継続事前学習したモデル(Built with Meta Llama 3)。Meta Llama 3 Community Licenseを継承してモデルを公開しているため、ライセンスに従い利用可能。

同モデルは日本語言語モデルの性能を評価するためのベンチマークの一つである「Stability-AI/lm-evaluation-harness」の9タスクにおいて、平均スコアが66.15だったという。一方Llama 3は59.82だった。

○利用時にはファインチューニングやモデルマージなどを

今回公開したLlama 3 Youko 8Bは汎用的なベースモデルであることから、同社は目的とするタスクで利用する場合にはファインチューニングやモデルマージを行い利用することを勧めている。
(熊谷知泰)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください