1. トップ
  2. 新着ニュース
  3. ライフ
  4. カルチャー

実務歴30年ベテラン弁護士、ChatGPTで判例を検索した訴訟が棄却に…問い質したAIは自信満々に「全て事実です」と答えたなのになぜ?

集英社オンライン / 2023年9月20日 12時1分

人間の言うことを聞く「有能なアシスタント(としての人工知能)」を使いこなせば、日頃の仕事の効率性が飛躍的に高まると期待されているAI。しかし、AIはむしろ口から出まかせの嘘(捏造情報)や誤った情報などを回答して、その場をしのごうとする傾向があり、ユーザーがうっかり騙されてしまうことも珍しくないというが…その実例のひとつを紹介しよう。『AIと共に働く - ChatGPT、生成AIは私たちの仕事をどう変えるか -』 (ワニブックス【PLUS】新書)より、一部抜粋・再構成してお届けする。

#2

ビジネスパーソンは生成AIとどう向き合うべきか

ChatGPTの職場への導入については日米の間で大きな開きが生じています。ただ、「日本が米国に遅れをとっているのは問題だ」と決めつけるのは早計かもしれません。



ChatGPTのような生成AIはときに誤った情報や「幻覚」と呼ばれる「でっち上げ」等の回答を返してきます。また、それらの回答(テキストや画像などのコンテンツ)が第三者の著作権を侵害している可能性もあります。

これらを考慮するなら、ChatGPTの導入に日本企業の多くが若干及び腰になるのも、ある程度理解できます。

また、一旦導入した後も、その活用に際しては慎重かつ思慮深い姿勢が求められます。

かつてグーグルで「LaMDA」など大規模言語モデルの評価作業を担当していたAI研究者のマーガレット・ミッチェル氏は次のように語っています。

「生成AIは貴方(ビジネスパーソン)が知らないことを知るためのツールではありません。むしろ貴方が既にできることを、さらによくできるようにするためのツールなのです」

これはどういう意味でしょうか?

ビジネスパーソンが自分の専門分野で生成AIを使う場合には、これまで培った「専門知識」や「勘」といったものが助けてくれますから、ChatGPTなど生成AIがときに返してくる誤った情報などに騙される可能性は小さくなります。

逆に、自分の専門以外の言わば「畑違いの分野」ではよく知らないことが多いので、ChatGPTの嘘にコロッと騙される危険性が高まります。ミッチェル氏が指摘しているのは、まさにその点なのです。

実務歴30年のベテラン弁護士がChatGPTで民事裁判の資料作成

ただ、自分の専門あるいは得意とする分野で使うからといって油断すると酷い目に遭います。

米国では2023年5月、実務歴が30年にも及ぶベテラン弁護士がChatGPTを使って民事裁判の資料を作成したところ、そこに記載されていた数々の判例がいずれも虚偽であることが分かって大問題となりました("Here,s What Happens When Your Lawyer Uses ChatGPT," Benjamin Weiser, The New York Times, May 27, 2023、"The ChatGPT Lawyer Explains Himself," Benjamin Weiser and Nate Schweber, The New York Times, June 8, 2023)。

事の発端は2019年8月、ロベルト・マタという男性がエルサルバドルからニューヨークに向かう航空機内で配膳カートがひざに当たって怪我をしたことです。

マタ氏はその時点では何の法的アクションも起こしませんでした。しかし最近になって、その怪我を理由に同航空機を運用していた南米コロンビアのアビアンカ航空を訴えました。

これに対しアビアンカ航空の弁護団は「既に、その件は時効だ」との理由でマンハッタン連邦地裁に同訴訟の棄却を求めました。しかし原告(マタ氏)側のスティーブン・シュワルツ弁護士は「時効は成立せず、この裁判は実施されるべきだ」と反論しました。

シュワルツ弁護士は、過去に航空会社が被告となった幾つかの訴訟で、実際に時効が成立しないで裁判が実施されたと主張し、それらの判例が記載された10ページの資料を提出しました。

「リサーチのためにChatGPTを使い、結果的にそれに騙された…」

そこには「マルチネス対デルタ航空」「ジッカーマン対大韓航空」「ヴァーギーズ対中国南方航空」など、いかにもそれらしい呼称の判例が列挙されていました。

ところがアビアンカ航空の弁護団も判事も、その資料に記された6件の「判例」をデータベースなどから確認することができませんでした。

そこで判事は(資料に記載されたものではなく)本物の判例のコピーを提出するようシュワルツ弁護士に命じました。

これに対して同弁護士は6件の判例全てがChatGPTによって作成されたことを明らかにし、それらが実際には存在しない架空の判例であることを認めました。

ここから大騒ぎとなりました。

シュワルツ弁護士は宣誓供述書の中で「自分は意図的に法廷や航空会社を騙すつもりはなかった。あくまでリサーチのためにChatGPTを使い、結果的にそれに騙された」とする旨を述べました。

ChatGPTは「(この判例は)全て事実です」と回答

2023年6月8日に、このベテラン弁護士の懲戒処分を決めるための審理が連邦地裁で開かれました。法廷の傍聴席には、報道関係者や弁護士、法律事務官、さらに大学教授や法律専攻の大学生など70名近くが着席して審理を見守りました。

その人たちの目の前で、判事はシュワルツ弁護士に「なぜ(ChatGPTの)回答の真偽を確認する作業を怠ったのか?」と問い詰めました。

これに対し同弁護士は「ChatGPTが判例をでっち上げるとは思わなかった」と答えました。

彼は大学に通っている自分の子供たちからChatGPTの話を聞いて、その存在を知りました。その話から「(ChatGPTとは)スーパー検索エンジンのようなものだ」と思ったそうです。

実際に同弁護士がChatGPTを使って判例の資料を作成した際には、それが返す答えは自信に満ち溢れているように見えました。

それでも彼は念のためChatGPTに「これらの判例は事実だろうね?」と問い質したところ、ChatGPTは「全て事実です」と答えました。

そもそも嘘をつくかもしれないAIに真偽を確かめること自体が大きな間違いですが、今更それを言ったところで後の祭りです。

結局、アビアンカ航空への訴訟は棄却に

その審理から約2週間後、連邦地裁の判事はシュワルツ弁護士、また形式的ながらも彼と連名で偽資料を法廷に提出したもう一人の弁護士、そして彼らが所属する法律事務所に対し、(三者まとめて)5000ドル(70万円以上)の罰金を科しました。弁護士資格の取り消しや停止といった最悪の事態は免れたわけです。

また彼らが弁護を担当した、(前述の)膝を怪我した男性マタ氏によるアビアンカ航空への訴訟は棄却されました。

判事は懲戒処分の理由として「(今回の一件は)米国の法律職と司法システムに対する不信感を招いた」と指摘したうえで、「信頼できる人工知能を(訴訟関連のリサーチなどに)利用することは本質的に不適切というわけではないが、既存の法律は提出文書の正確性を確かめる門番としての役割を弁護士に課している」と述べました。

要するに「弁護士が(ChatGPTのような)AIを使うのは構わないが、それが返す答えの中身くらいは自分で確かめろよ」と言っているわけです。

ただ、これが米国の法曹界の一致した見解というわけではありません。

ほぼ同時期に、テキサス州の連邦地裁判事は自らが担当する訴訟において、弁護士がAIを使って文書を作成することを禁止しました。

一方、法科大学院の教授ら専門家の中には「(シュワルツ弁護士の一件で)ChatGPTの危険性が知れ渡ったので、今後は一種の抑止効果が期待できるのではないか」と前向きに受け止める人もいます(が筆者には皮肉にも聞こえます)。

生成AIが日本の職場で本格的に活用されるようになっていくのは時間の問題

日本ではこうした失敗事例なども参考に生成AIへのスタンスを検討しながら、徐々にビジネスに導入していく方が賢明かもしれません。

PwCコンサルティング合同会社(本社:東京都千代田区)が2023年春、日本国内の企業・組織に所属する従業員を対象に実施したアンケート調査(有効回答数:1081件)によれば、ChatGPTのような生成AIを知らないとした回答が全体の54パーセントに達する中、逆に認知層の60パーセントが生成AIに「関心がある」と回答しました。

また同じく認知層の47パーセントが、生成AIの自社への影響について「チャンス」と捉えていることも分かりました。逆に「脅威」と捉えている人は9パーセントに止まり、「チャンス」が「脅威」の約5倍に達しました。

以上の結果から見て、米国よりも遅れてはいますが生成AIが日本の職場に本格的に導入され、活用されるようになっていくのは時間の問題と見られます。

その際、使い方次第で両刃の剣となる、この強力なツールをどう使いこなしていけばいいのでしょうか?

ChatGPTが世間で騒がれ、特にビジネス活用への期待が高まってくると「プロンプト・エンジニアリング」というテクニックが注目を集めるようになりました。

プロンプト・エンジニアリングとは何か?

プロンプトとはChatGPTなど生成AIに対して、私達ユーザーが発する質問やリクエストのことです。このプロンプトの出し方、つまりその内容や表現によって生成AIが返してくる回答のクオリティが大幅に違ってくると言われています。

たとえばプロンプトの末尾に「一歩ずつ考えよう(Let's think step by step)」と付け加える。あるいは生成AIに具体的な役割を与える、つまり「貴方は○○分野の専門家です。その立場から××について素人にも分かるように説明してください」などの工夫によって、その回答が見違える程良くなるとされます。

またプロンプトは、より具体的な方が効果的とも言われます。

たとえば単に「ARRとは何ですか」と聞くよりも、「金融分野におけるARR(Annual Recurring Revenue)とは何ですか。また、その具体例を3つ挙げてください」というプロンプトの方が良い答えが得られるということです(因みにARRとは日本語で「年間経常収益」を意味し、具体的にはサブスクリプションなど毎年決まって得られる収益を指しています)。

これらのテクニックが一般にプロンプト・エンジニアリングと呼ばれるものです。

それらはユーチューブなどソーシャル・メディア上で無料でシェアされることもあれば、逆に一種の有料コンテンツとして販売されるケースもあります。

米国の求職・求人SNS「LinkedIn」では最近、(日本の履歴書に該当する)レジュメやカバーレターなどの技能欄に「プロンプト・エンジニアリング」と書き込まれるケースが急増しています。

実際、それによって企業から求職者へのレスポンス回数も増えていると見られています。

極端な例としては、グーグルが出資するスタートアップ企業の求人広告で「サンフランシスコ在住のプロンプトエンジニア兼司書」に33万5000ドル(約4500万円)の年俸が提示されたといいます(「プロンプトエンジニアの需要急増、年俸4500万円の求人も─ChatGPTブームで」、Conrad Quilty-Harper、Bloomberg、2023年3月31日)。


文/小林雅一 写真/shutterstock

『AIと共に働く -ChatGPT、生成AIは私たちの仕事をどう変えるか-』 (ワニブックス【PLUS】新書)

小林雅一 (著)

2023/9/19

¥990

200ページ

ISBN:

978-4847066979

(ChatGPTと生成AIを)
「仕事のアシスタントとして
採用するなら、
これほどの適材は
他に見当たらないでしょう」

人工知能とそれを支えるクラウド技術などの進化を
長年追い続けてきた第一人者による、
最新技術を仕事に活かすためのいちばん丁寧な解説書。

具体的な事例なども随所に交えて、わかりやすくまとめました。

【主な内容】
第1章 ChatGPT、生成AIとは何か
第2章 生成AIは私達労働者の敵か、味方か
第3章 生成AIを仕事にどう使うか
第4章 未来予測――私達の生きる世界は今どこに向かっているのか

●調べ物の効率を圧倒的にアップさせる
●気の重いメールの返信を肩代わりさせる
●ぱっとしない日報を前向きに修正させる
●複数の英文記事をもとに日本語のレポートを作成
●魔法のように精巧で美しい画像を一瞬で描かせる
――など

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください