1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

自信満々に断言されると嘘でも信じてしまう理由 生成AIの「もっともらしい」誤回答にも要注意

東洋経済オンライン / 2024年5月10日 17時0分

この例として非常に興味深いお話を、弁理士をされているSさんから聞きました。

Sさんはクライアントから委託を受けて特許や商標登録を国内・海外に出願する業務をしていますが、最近、クライアントから法的に間違った主張を堂々とされることが増えたといいます。

そこでさらに詳しく聞いてみると、一部のクライアントたちは、ChatGPTの回答を基にそうした主張をしているようなのです。

そこでSさんが、ChatGPTに、

「出願したい特許と似たものが、すでに存在するか」

と質問をしたところ、実在しない事例を挙げて、「もっともらしく」返してきたといいます。いわば「ケースをでっち上げる」わけですね。アメリカと日本の法律を混同したり、商標法と著作権法を混同したりすることもあるということでした。

ここで問題となるのは、生成AIの返事の「もっともらしさ」です。先ほどの事故の事例の「言い切った者勝ち」のような現象が、ここでも起こり始めています。

ChatGPTは責任を負ってくれない

ただし、ChatGPTは、自身が生成した文章について、責任を負ってはくれません。それっぽい回答を信じてしまった人が責任を負うことになります。

こうしたことが起こりがちということもあり、また剽窃(ひょうせつ)などの問題と関連することもあり、企業でも学校でも、生成AIが出力したものをそのまま使用することは禁止されています。

でも例えば、まだ何が正しくて、何が正しくないかの判断がつかない子どもがChatGPTの答えを信じてしまい、取り返しのつかない誤りを犯してしまったときは、どうなるでしょうか。あるいは、その子どもから話を聞いた親が、信じてしまったら?

さらに恐ろしいのは、使用したときは「ChatGPTの間違った情報だ」と理解していても、後に似た情報に触れた際に、「この話はどこかで聞いたことがある」と偽情報の中身だけを想起してしまうケースも考えられることです。

誰しもに起こり得るこうした事態について、「思い込むほうが悪い」と言えるでしょうか。

今井 むつみ:慶応義塾大学環境情報学部教授

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください