1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

生成AIは2024年から「実装フェーズ」に どのような領域で活用進む?

ITmedia ビジネスオンライン / 2024年5月27日 8時0分

●生成AI実運用フェーズに入る「2024年」の課題とは

 2024年、実装フェーズにある生成AIはよりリスクの高い分野、つまり社内に閉じた活用ではなく、これまで以上に「顧客向けに活用」に広がっていきます。つまり、今後は「データの正確性の担保」が課題となります。現在は、生成AIが事実に基づかない情報を生成するし、不正確な回答をする事象(ハルシネーション)が一定数発生しています。顧客コミュニケーションなど、企業の信頼にかかわる分野への適用においてそのようなミスが発生した場合、生成AIの活用が遠ざかる可能性も否定できません。

 そうならないためには、2つの対策を実行していく必要があります。まず、1つ目は「フィルタリング機能の強化」です。これは、生成AIのハルシネーションを検知し、盛った回答や不正確な回答をしないようにルール設計をすることです。ルール設計の例として、筆者が事業責任者として開発に携わるチャットボット「BOTCHAN AI」を紹介します。同サービスでは、3層のフィルタリングを構築しています。「有害コンテンツ検出」「ハルシネーション検出」「ナレッジ非類似検出」の3つです。

1. 有害コンテンツ検出:生成AIが不適切な言葉や差別的な発言をしようとした場合に、検知する機能です。生成AIの誤った判断やユーザーからの悪意ある入力による攻撃的な発言や不適切な返答を防止します。

2. ハルシネーション検出:生成AIが不確かな情報や嘘を言わないように監視する機能です

3. ナレッジ非類似検出:生成AIがユーザーの質問に関する正確な知識を持っているかどうかを評価する機能です。ユーザーが求める情報と生成AIの知識との間にギャップがある場合、生成AIがその質問に答えないことを自発的に選択させます。これにより、誤解を招く回答や無関係な情報の提供を防げます。

 このフィルタリングを全て問題なく通過した内容が、質問者へ回答されるような設計にしています。

 実運用を進めるための対策の2つ目は「エスカレーションのルール設計」です。例えば、生成AIによるハルシネーションを検出した場合、生成AIが無理に回答を捻出するのではなく、「情報がないためお答えできません」「詳細は以下へお問い合わせをお願いします」などと返答するようなルール設計が必要になります。

●生成AIに関する2024年の予測、トピック

 最後に、今年の生成AIに関して予測されるトピックを取り上げておきたいと思います。今年はヒューマノイド(汎用型)ロボットの開発が加速していくことが予測されます。これまで、工場用ロボットなどのように同じタスクを実行し続けるロボットはありましたが、もう少し曖昧(あいまい)な指示を処理できるロボットが近い未来に現れるでしょう。例えば、「料理をしてください」という依頼に対し、事前にロボットが料理メニューを学習していれば、「野菜はこの角度でカットする」「何度のお湯で何分間煮る」などと行動を細分化し、実行してくれます。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください