KDDI×NICT、ハルシネーション抑制やマルチモーダルに対応するLLM研究を開始
マイナビニュース / 2024年7月2日 9時43分
KDDIは7月1日、情報通信研究機構(以下、NICT)とLLM(Large Language Models:大規模言語モデル)に関する共同研究を開始したことを発表した。この研究では、NICTが蓄積してきた600億件以上のWebページのデータと、KDDI総合研究所が開発したハルシネーションを抑制する技術やマルチモーダルAI技術を活用。LLMを使用する際に課題となるハルシネーションの抑制や、地図画像およびそれに付随する建物情報などのマルチモーダルデータの取り扱いを可能にする技術の開発を進める。
同研究は総務省およびNICTが令和5年度補正予算を活用し推進する「我が国における大規模言語モデル(LLM)の開発力強化に向けたデータの整備・拡充及びリスク対応力強化」における共同研究の第1弾とのことだ。
○研究概要
LLMは有用だが、その利用においては事実と異なる内容や脈絡のない文章などが生成される「ハルシネーション」や、地図情報の活用の難しさなどが課題となっている。そこで同研究では、NICTが蓄積したWebページのデータや、そこから作成したLLMの事前学習用データなどを活用して共同研究を進める。
一方のKDDIは、日本語汎用LLMの傾向に合わせたハルシネーション抑制技術の高度化や、地図画像および付随する建物情報などのマルチモーダルデータをLLMで取り扱う技術を、KDDI総合研究所のハルシネーション抑制技術やマルチモーダルAI技術を基に研究開発する。
これらの技術により、特定の目的のための対話システムや雑談システムにおける、LLMの信頼性向上が期待されるという。また、LLMによる位置関係の把握などが可能になるため、例えば通信事業者のユーザー応対に適用することで、問題が発生している設備やエリアの迅速な把握も可能となり、通信品質の改善が期待されるとのことだ。
○取り組みの背景
KDDIグループはこれまで、生成AI開発のための大規模計算基盤の整備と同時に、オープンモデル活用型の日本語汎用LLMおよび領域特化型LLMの開発体制の整備を進めてきた。また、NICTはこれまでに蓄積してきた600億件以上のWebページのデータを活用してLLMの事前学習に用いるデータの整備を進めてきた。これまでに軽量な130億パラメータのLLMから3110億パラメータのLLMまで、計17のLLMの事前学習を完了させてきたとのことだ。
(熊谷知泰)
外部リンク
この記事に関連するニュース
-
パナソニックHDとストックマーク、国内最大規模(1,000億パラメータ)の独自日本語LLM「Panasonic-LLM-100b」開発で協業
PR TIMES / 2024年7月2日 13時45分
-
パナソニックHDとストックマーク、国内最大規模(1000億パラメータ)の独自日本語LLM「Panasonic-LLM-100b」開発で協業
PR TIMES / 2024年7月2日 12時45分
-
パナソニックHD、国内最大級の日本語LLMを開発‐パラメータ数は1000億
マイナビニュース / 2024年7月2日 12時15分
-
日本語生成AIの共同研究を開始 KDDIと情報通信研究機構
共同通信 / 2024年7月1日 18時22分
-
富士通、エンタープライズ向けの生成AIフレームワークを7月より提供開始
マイナビニュース / 2024年6月5日 8時23分
ランキング
-
1マイナポータルで障害、一部機能が利用しづらくなった
ASCII.jp / 2024年7月2日 16時35分
-
210万円以下でOffice作業もテレビ会議もお手の物なシンプル15.6型PC
ASCII.jp / 2024年6月30日 10時0分
-
3「WAON POINT」と「WAONポイント」の違いとは? 若干キャラクターも違う(菊地崇仁)
ポイ探ニュース / 2024年7月1日 7時1分
-
4KADOKAWAの情報、さらに流出の可能性──ハッカーが追加で公開か 同社は信ぴょう性を調査中
ITmedia NEWS / 2024年7月2日 11時25分
-
5「褒めることもあれば文句もある」 純烈メンバー卒業発表で「賛否」あったことを明かす 謝罪と今後についてコメント
ねとらぼ / 2024年7月1日 21時47分
記事ミッション中・・・
記事にリアクションする
記事ミッション中・・・
記事にリアクションする
エラーが発生しました
ページを再読み込みして
ください