1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

「横浜の中華料理屋のおススメは?」と聞いてはいけない…ChatGPTが「珍回答」を連発してしまう根本原因

プレジデントオンライン / 2023年12月22日 14時15分

※写真はイメージです - 写真=iStock.com/Robert Way

ChatGPTのような生成AIを使いこなすにはどうすればいいのか。機械学習コンサルタントの中山心太さんは「ChatGPTは知識データベースではなく、与えられた文字列から次の文字を予測して出力するAIなので、ウェブ検索と同じ感覚で個別具体の情報を尋ねてはいけない」という――。

※本稿は、中山心太『高校生だけじゃもったいない 仕事に役立つ新・必修科目「情報I」』(PHP研究所)の一部を再編集したものです。

■GPTは「次の単語を予測するAI」

ChatGPTをはじめとする大規模言語モデル(LLM:Large Language Model)には、ハルシネーション(妄想)という問題が付きまといます。たとえばChatGPTに「横浜の中華料理屋のおススメは?」と聞くと、かなり高い確率で存在しない店舗を紹介されます。

ChatGPTの元となったGPTは次の単語を予測するAIです。たとえば「今日の天気は」という言葉の続きを予測させると、「今日の天気は晴れです……」となります。「今日の天気は」の続きには「晴れです」や「曇りです」や「あいにくの空模様です」といった天気に関する言葉が繋がりそうです。しかし、「中華料理屋です」「東京です」といった天気に関係のない言葉は繋がりそうもありません。

「横浜の中華料理屋のおススメは?」と聞かれた際にChatGPTはどうするかというと、中華料理屋の店名のように聞こえる適当な言葉を繋いでしまうのです。これはChatGPTの元になったGPTが「次の単語を予測するAI」だから仕方ないのです。

■繋がりやすい言葉を口に出しているだけ

ChatGPTは「過去のチャット履歴から、常識的に考えて繋がりやすい言葉を次々と繋げている」だけに過ぎません。しかし、この性能が極限まで高まった結果、ある種の知性と呼んでも差し支えないレベルにまで到達しています。

我々が母国語で日常会話をしているときも、おおよそそんなものです。なんとなく繋がりやすい言葉を口に出しているだけで、裏側で高度な思考をしているわけではありません。けれども人はそこに知性を感じます。

ハルシネーションの発生は、現在のLLM単体での技術的な限界点です。ハルシネーションは創作と裏表です。メールのテンプレートを作ったり、文章の意味を出力させたり、特定の立場の人からの意見を貰ったり、こういった能力は創作する能力がなくては実現することができないのです。そのため、LLMが有効な問題を適切に見分け、有効な問題にだけLLMを使うことや、ほかの技術と組み合わせることでLLMの欠点を補うことが求められます。

■ChatGPTには「常識」はあるが「知識」はない

インターネットは20年以上にわたり、検索の時代が続いてきました。Googleの創業は1998年で、筆者も2000年頃からGoogleを使っていた記憶があります。

検索の時代が長らく続いた結果、「何かを出力するウェブサービスは、個別具体の正しい知識を返してくれるのだ」という思い込みをしている人が生まれています。そして、この思い込みがある人は、LLMに検索と同様に知識を尋ねようとするため、LLMをうまく使いこなせないという状態に陥っています。

2023年5月6日の読売新聞オンラインの記事に、「チャットGPTが珍回答、滋賀の三日月知事について『日本の漫画家です』『代表作るろうに剣心』」というニュースが掲載されました。これは滋賀県において、ChatGPT導入のための調査を行った際に滋賀県知事について聞いたところ、ハルシネーションを起こした回答を答えられてしまった、というものです。

滋賀県の三日月大造知事
写真=時事通信フォト
滋賀県の三日月知事。ChatGPTに尋ねてみると、「三日月大造は日本の漫画家です」との珍回答が返ってきた(=2023年8月31日) - 写真=時事通信フォト

これは、ChatGPTを検索と同じように使おうとしたために起こっている問題です。ChatGPTは知識データベースではありません。与えられた文字列から次の文字を予測して出力するAIです。その性質上、「繋がりやすい言葉」を出力するのであって、「事実に基づいた言葉」を出力するわけではありません。ChatGPTにはある種の「常識」はあるが「知識」はないのです。

■一般論であれば正確に返してくれる

そのため、ウェブ検索と同じ感覚で個別具体の情報を尋ねると、高確率でハルシネーションが発生します。「滋賀県知事」や「横浜の中華料理屋」などの個別具体の知識は高確率で間違った答えを返します。

一方で、ChatGPTには多くの文章を通じて学んだ「常識」はあるので、抽象度が高い事柄や、一般論であればかなり正確に返してくれます。たとえば「県知事の仕事は何ですか?」や「中華料理屋にどんなメニューがありますか?」といった質問には、「常識」で判断してくれます。

検索エンジンとChatGPTの大きな違いは、「常識の有無」と「個別具体の知識の有無」です。検索エンジンは個別具体のウェブページを返すため、そこから常識を知ろうとしたり、包括するような抽象概念を作ろうとすると骨が折れます。うまく情報が整理されたウェブページがあるとも限りませんし、偏見に満ちた整理の仕方をしたウェブページも多くあるでしょう。一方でChatGPTはこの逆で、個別具体の知識は持っていませんが、数多のウェブページから獲得した常識や抽象概念を持っています。

■検索エンジンとChatGPTは性質が逆

中山心太『高校生だけじゃもったいない 仕事に役立つ新・必修科目「情報I」』(PHP研究所)
中山心太『高校生だけじゃもったいない 仕事に役立つ新・必修科目「情報I」』(PHP研究所)

また、LLMの学習には極めて長い時間と費用がかかるので、何度も学習は行えません。2023年9月時点で、ChatGPTは2022年1月までの情報しか利用できません(12月現在、GPT-4であれば2023年4月までの情報を利用可能)。一方、検索エンジンは新しいウェブページができたら、数時間程度で巡回し、検索にヒットするようになります。

検索エンジンを利用して物事を理解するには時間がかかります。何度も検索キーワードを変え、数多の検索結果のウェブページを閲覧し、業者が書いたアフィリエイト記事かどうかを確認し、記事で自分の中で咀嚼し……、というプロセスを経て初めて自分が本当に調べたかったことを理解することができます。

このような特性を表にすると次のようになります。検索エンジンとChatGPTは性質が逆である箇所が多いことが見て取れます。

◆検索エンジンが得意なこと
・個別具体の知識の検索
・最新の資料の参照
◆検索エンジンが苦手・できない利用者の仕事
・複数の資料の整理、演繹、推論
・ウェブページの要約
・複数のウェブページを包括するような抽象概念や、常識の獲得
◆ChatGPT(LLM)が得意なこと
・複数のウェブページから獲得された、抽象概念や常識の利用
・複数の資料の整理、演繹、推論
◆ChatGPT(LLM)が苦手・できない利用者の仕事
・個別具体の知識の参照
・最新の資料の参照
・ウェブページの直接閲覧による事実確認

このような性質があるため、検索エンジンとChatGPTは適宜使い分けなければいけません。また、両者の利点を掛け合わせたBing Chat(現:Copilot)などもありますが、現時点ではウェブサイトを解釈した上でハルシネーションを起こすなどの問題が残っています。とはいえこれは時間が解決してくれる問題でしょう。

----------

中山 心太(なかやま・しんた)
機械学習コンサルタント
NextInt 代表取締役。電気通信大学大学院博士前期課程修了後、NTT情報流通プラットフォーム研究所(現ソフトウェアイノベーションセンタ、セキュアプラットフォーム研究所)にて情報セキュリティ・ビッグデータ関連の研究開発に従事。その後、統計分析、機械学習によるウェブサービスやソーシャルゲーム、ECサービスのデータ分析、基盤開発、アーキテクチャ設計などを担当。2017年に株式会社NextIntを創業し、現在は機械学習に関するコンサルティングや、ゲームディレクター、グループウェア開発を行っている。

----------

(機械学習コンサルタント 中山 心太)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください