1. トップ
  2. 新着ニュース
  3. 経済
  4. プレスリリース

大規模言語モデルに個人の発話を効率よく再現させる個人性再現対話技術を開発 ~NTT版LLM”tsuzumi”への適用により、本人のデジタル分身を低コストに生成可能~

Digital PR Platform / 2024年1月17日 15時6分


[画像4]https://user.pr-automation.jp/simg/2341/81528/700_379_20240110112652659e006cd67b4.JPG


4.今後の展望
 ユーザのデジタル分身を通じた人間関係の創出効果に関してMetaMe上でのフィールド実験を2023年度中に開始予定です。このような取り組みを通して、NTT版大規模言語モデルtsuzumiによる個人性再現機能の提供に向け、2024年度中に技術の精度向上を図ります。それにより、特定の領域に関する高い専門的な言語能力を有しながら、親しみやすい個性を持ち顧客や社員等との関係性を築けるデジタルヒューマンやチャットボットの実現につなげていきます。

<用語解説>
※1 地球・社会・個人間の調和的な関係が築かれる未来社会の実現に向けて
~デジタルツインコンピューティングの4つの挑戦~
https://group.ntt/jp/newsrelease/2020/11/13/201113c.html

※2 NTT版大規模言語モデル「tsuzumi」
https://www.rd.ntt/research/LLM_tsuzumi.html

※3 NTTニュースリリース 2023年2月1日:人との繋がりを生み出す次世代アバターUX技術の開発~NTTドコモが技術提供するコミュニケーションサービスMetaMe™に人デジタルツイン技術を試験実装~
https://group.ntt/jp/newsrelease/2023/02/01/230201a.html
なお、2023年2月1日に発表した個人性再現対話技術(2022年度版)は、個人性再現対話技術の中のペルソナ対話技術のみを実装したものです。

※4 ファインチューニング: AIにデータに基づく知識を与えるための機械学習技術に関する用語で、大規模なデータで既に学習してあるAIモデルを、別の比較的小規模なデータで学習させて微調整(fine tuning)すること

※5 アダプタ技術: 事前学習済みモデルの外部に比較的小規模のモデル(アダプタ)を追加することで、事前学習済みモデルのパラメータを固定したまま効率的に追加学習が可能となる技術

NTT版大規模言語モデル「tsuzumi」 柔軟なチューニング ~基盤モデル+アダプタ~
https://www.rd.ntt/research/LLM_tsuzumi.html#anc03

※6 docomo Open House’24
https://docomo-openhouse24.smktg.jp/public/application/add/32

「MetaMeⓇ」は、株式会社NTTドコモの登録商標です。

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください