1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

自信満々に断言されると嘘でも信じてしまう理由 生成AIの「もっともらしい」誤回答にも要注意

東洋経済オンライン / 2024年5月10日 17時0分

怒りも湧いてきましたし、また正義感に火がついたこともあって、専門家に調査を依頼することにしました。

すると驚いたことに、「そもそも私はぶつけていない」ということがわかったのです。私の車が当たったならばついているはずの塗料が見られなかったこと、私の車には傷がなかったこと、そして車同士の角度から、最初に女性が指摘した傷は、私の車がつけることは不可能、という結果でした。

その女性の、あまりに確信的な発言に影響されて、自分の「ぶつけていないはず」という記憶を疑ってしまった。「記憶のすり替え」が、まさに自分自身に起こったわけです。

なぜ記憶はすり替えられてしまったのか

思い返せばとても風の強い日で、風で車が揺れ、それを相手は「ぶつけられた」と思った。私も「ぶつけたかもしれない」と思ったのかもしれません。

そんな中、確信を持って「ぶつけられた!」と言った女性の言い分で、「事実」がつくられていきました。

世の中ではこのように、「断言したもの勝ち」「自分の記憶が正しいと信じられた人の勝ち」ということが、日々起こっているのだと思います。

自分の記憶があやふやだと、自信満々に「こうだった!」と言う人に押し切られてしまうことは十分あり得ます。

きっとこういうことを経験している人が意外に多いからこそ、近年はドライブレコーダーで全方向を録画する方が増えているのでしょう。私自身もすぐに購入しました。

たとえ両者に悪意がなかったとしても、互いが自分の「記憶」に基づいて「ぶつけられた」「ぶつけていない」と主張したら、議論が平行線をたどるのは当然です。

まして一方に悪意があってより強固に主張をすれば、もう一方はその主張を受け入れてしまうかもしれません。

記憶の曖昧さを知った皆さんに、同じような災難が降りかかりませんように。

生成AIの「もっともらしさ」に騙されない

2023年は、生成AIがトレンドとなりました。日本語など、日常的に使う言語で質問をすると、まるで人間が答えているかのように、自然な文章で回答してくれます。こうした新しい技術は、使い方によっては大変便利なものです。

ただ、ChatGPTをはじめとする生成AIは、内容的に間違った答えを返すことがかなり頻繁にあります。間違いのレベルは様々です。

ChatGPTは、インターネット上にある情報を学習して質問に回答しますが、インターネット上にはそもそも、誤情報や誤認識が溢れています。専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、ときに誤った答えを生成してしまうのは必然のことなのです。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください