1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

サイバーエージェント、大規模“視覚”言語モデル(VLM)を公開‐日本語に対応

マイナビニュース / 2024年6月13日 14時0分

画像提供:マイナビニュース

サイバーエージェントは6月13日、同社独自の大規模視覚言語モデル(VLM:Vision Language Model)を公開した。このVMLのパラメータ数は75億で、ベースモデルの一部を米Hugging Faceが運営するWebサイト「Hugging Face Hub」に公開したという。

公開されたモデルは同社独自の日本語大規模言語モデル(LLM)で合成されたデータセットをメインに学習したもので、商用利用可能なオープンソースソフトウェアで提供される。ユーザーは同モデルのチューニングを行うことにより、画像を加味した対話AI(人工知能)などの開発もできる。

近年、米OpenAIが開発した「GPT-4o」を始めとした画像も扱えるLLMが急速な進化を遂げている一方で、既存の公開されているVLMのほとんどは英語を中心に学習されており、日本文化の理解や日本語での会話に強いVLMは少ない状況だという。

日本語VLMの開発に取り組んでいるサイバーエージェントは、同モデルを一般公開することで、より多くの人に日本語の視覚言語モデルに関する最先端の研究開発に取り組んでもらいたい考えだ。
(早川竜太)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください