1. トップ
  2. 新着ニュース
  3. ライフ
  4. ライフ総合

これだけはChatGPTに聞いてはいけない…コンピューターサイエンスの研究者が考える生成AIの正しい使い方

プレジデントオンライン / 2023年5月23日 13時15分

撮影=プレジデントオンライン編集部

OpenAI社が開発したChatGPTを使う上での注意点はなにか。国立情報学研究所の佐藤一郎教授は「ChatGPTの回答は確率的に高い単語を組み合わせて返答しているだけで、それが正しいと考えてはいけない。自分の知らないことを調べるのに使用するのは避けるべきだ」という――。(インタビュー・構成=ライター 梶原麻衣子)

■ChatGPTは本当に業務効率化につながるのか

ChatGPTが大きな話題になり、連日メディアをにぎわせています。

多くの職場では「わが社もいち早くChatGPTを取り入れて、業務効率化を図ろう」という掛け声が飛んでいるかもしれません。

確かにChatGPTを使えば、文書作成は楽になるでしょう。メールも、送り先と要件を箇条書きにして指示を出せば、ChatGPTがメールの文書を生成し、送信するところまで自動でやってくれるようになる。

少し先の未来では、「まだメールを人力で書いているの?」という会話が生まれるかもしれません。会議の議事録や業務日誌はもちろん、ゆくゆくはプレゼンテーション用のスライドなども自動生成されるようになるでしょう。

ChatGPTを開発したOpenAI社にはマイクロソフト社が多額の出資をしています。将来的にはおそらくMicrosoft OfficeがChatGPTを実装し、Outlookはもちろん、WordやExcelでもChatGPTが使えるようになり、メールも文書も表計算も、ChatGPTが生成したものに人間が手を入れる、というのが当たり前の業務スタイルになっていくのだろうと思います。

ここだけを見れば、確かに大変便利なツールです。しかし必ずしも「業務効率化につながる」とは言えません。

■大量に増える文書は誰が読むのか

言うまでもありませんが、企業の業務は文書生成に限りません。議事録やプレゼン資料の作成を指示される立場の社員にとっては業務の手助けになりますが、その分、文書や資料の量は今よりも大幅に増えることになります。

「無駄な文書」とまでいうと言い過ぎかもしれませんが、少なくとも「とりあえず作っておくか」というアリバイ的な文書は増えるでしょう。

なにせ、一から自分で作る必要がなくなるのです。しかし部下に指示を出す側は、そうやって「自動で」上がってくる大量の資料や文書に目を通さなければならなくなるのです。

もちろん、ChatGPTは文章の要約もしてくれますので、企業の責任ある立場にいる方は「部下から上がってきた文書をChatGPTで要約してから目を通す」こともできるでしょう。しかし、ChatGPTは「その文書が業務において重要なものであるかどうか」を判断することはできません。

■むしろ非効率になってしまう

そのため、いくらChatGPTが要約が得意だといっても、人間が大量の文書を選別し、重要度を判断しなければならないことに変わりはないのです。

これは果たして「業務効率化」につながるのか。

業務効率というのは、文書作成だけでなく、組織全体、社会全体で効率を上げることで達成されるものです。

業務をChatGPTに任せた場合、社全体、社会全体で本当に業務効率化につながるのかは、やはり人間がその時々に判断するしかありません。やみくもに任せるだけでは、全く逆の「非効率」な結果をもたらす可能性さえあるのです。

■生成AIに触れずに生きることは不可能

もう一つ、ChatGPTの導入が議論になるのが教育現場です。小学生の読書感想文から、大学生のレポート作成、就職試験の志望動機に至るまで、「ChatGPTに書かせていいのか」「教員が、人間が書いたものとChatGPTが書いたものを見分けられないのではないか」といった指摘がすでに飛び交っています。

一方では「これからのAIが必須になる時代を考えれば、ChatGPTを教育現場から排除すべきではない」という意見もあるでしょう。

私の意見としては、「今後、ChatGPTを含む生成AIに触れずに生活することは不可能」「だから道具の特性をつかんで、使いこなすべきだ」というものです。

OpenAI社「Introducing ChatGPT」ページより
OpenAI社「Introducing ChatGPT」ページより

先ほども述べたように、Microsoft Officeにまで実装されるようになれば、日常生活だけを見てもChatGPTを避けて通る方が難しくなってしまいます。

使うか、使わないかよりも重要なのは「いつ、どう使うか」。「使いこなす」というのは、「こういう場面では使わない」ことを判断する力をも含みます。

■絶対に使ってはいけない課題

例えば小学生の読書感想文を一から書かせるのは問題でしょう。

読書感想文の目的は、児童自身の読書経験や、物語に対する理解を深め、感性、文章力を養うものです。

読書感想文を親や業者に書かせて提出することが許されないように、ChatGPTに書かせるのも「児童に読書感想文を提出させる目的が達成されない」から許されない、となるのではないでしょうか。

佐藤教授が考える、教育現場でChatGPTを使ってはいけない状況
撮影=プレジデントオンライン編集部
佐藤教授が考える、教育現場でChatGPTを使ってはいけない状況 - 撮影=プレジデントオンライン編集部

大学生のレポートであれば、「ChatGPTを使うな」というのは難しいことを踏まえたうえで、教員側が学生の能力を判断するために工夫を凝らすことが求められます。

レポート提出では判断できないからと普段の授業での出席や発言を重視するのか。あるいはレポートを提出させたうえで、面接試験を実施するのか。さまざまな方法が考えられますが、これも人間が対処しなければならない問題です。

■積極的に使うべきシチュエーション

就職試験の場面では「志望動機をChatGPTに書かせるケースがある場合、学生の能力をどう判断するのか」に、各社は頭を悩ませるでしょう。

この点については、現時点でも企業の中には「自社を志望してきた学生を、AI判定でふるいにかける」ことをしてきていますから、ある意味ではお互いさまとも言えます。

これを機に、「判断をAIに任せて、本当に自社が求める人材を採用できたのかどうか」を、振り返ってみるのもひとつかもしれません。

もちろん、教育の場面でChatGPTを使うことの利点もあります。

多くの文章を読み込んでいるChatGPTは、自分ひとりでは思いつかないような多角的な返答をすることがあります。正しい指示を出せば、議論の相手やアイデアの発掘といった場面で助けになります。

これからの子供たちにとって重要なのは、「ChatGPTを使って楽をすることを覚える」のではなく、子供が自分の力で考えなければならない場面と、ChatGPTを使った方がいい場面とをきちんと分けられるようにする能力です。

これがおそらく、「新しい時代の情報リテラシー」になっていくでしょう。

■「対話型AI」ではなく「文章生成AI」

子供や若い世代が「新しい時代の情報リテラシー」を備えるためには、まずは大人がChatGPTを理解しなければ始まりません。

そもそもChatGPTとはどういうものなのか。ChatGPTは「対話型AI」と言われますが、仕組みとしては文章生成AIです。

基本的にはたくさんの文章を読み込ませることで、元の文章の単語ごとのつながりを学習します。文章を生成する際には「確率的にこの単語の後にはこの単語が来る」と判断し、あたかも対話をしているかのような文章を生成しています。

つまり、文脈や意味を理解して「対話」しているのではなく、単語と単語を確立に基づいて並べているだけです。

「間違っています」と指摘すると「申し訳ありません」と返ってきますが、これも確率的にそう判断しているだけで、当然、ChatGPT自身が「申し訳ない」と思っているわけではありません。

「なぜ検索すれば出てくるような情報すら、ChatGPTは間違えるのか」も、文章生成の仕組みから説明できます。単語と単語を組み合わせているだけで、「意味」を理解しているわけではないからです。

また、ChatGPTは質問にも答えてくれます。それは教師の回答よりも質が落ちるかもしれませんが、わからないとき、知りたいとき、その場で答えてくれることは有用です。

■シンギュラリティが起きるわけがない

哲学的に言えば、ChatGPTにはソクラテスの言った「無知の知」がありません。そのため、間違っているかどうかは考慮せず、入力された質問に応じて、確率的に高い単語を組み合わせて返答してしまう。

ChatGPT自身が、何を知っていて、何を知らないかを判断できない状態のまま、せっせと文章を作っているから間違えてしまうのです。その意味では、「知らないことがあることを知っている人は、そうでない人よりも賢い」と考える人間の方が、ずっと賢い。

AIが人間を超える「シンギュラリティ(技術的特異点)」など、まだまだずっと先と言えるでしょう。

■決して回答は中立ではない

なめらかな返事をする生成AIの誕生に、世間は世界が変わると沸いていますが、先ほどの「業務効率化」の話と同様、社会がいい方向にだけ変わるとは限りません。

現在のChatGPTは、差別発言などを発しないよう、文字通り人海戦術、つまり人間の手で問題のある表現にラベルを貼って、使わないように学習させています。

そのため、英語データで言えば、差別的な表現をしやすい人、例えばトランプ支持者のような人たちの書き込みは学習から外されている、といわれています。

現在、そうした方針は「差別発言を避ける」ために合理的である、として許容されていますが、特定の表現を避けるという「偏り」があることは確かです。

人格のないAIが答えていると言っても、その回答内容は必ずしも「中立」ではありません。例えばAIに料理のレシピを質問すると、特定のメーカの特定の調味料を使うレシピを出力するという、ある種のステルスマーケティングになっている状況もないとはいえません。

今後、実際は偏っているのに、中立に見えるというAIの印象を悪用しようという人たちも出てくるでしょうから、「生成AIに聞けば、常に客観的で中立公正な情報を教えてくれる、というわけではない」「鵜呑みにしていいものではない」ことは、ユーザーである私たちも知っておく必要があるでしょう。

夜、ノートパソコンで不審なコンテンツをチェックしている女性
写真=iStock.com/Pheelings Media
※写真はイメージです - 写真=iStock.com/Pheelings Media

■ChatGPTの最もよい使い方

今後、AIの進化に伴って返答の事実関係の間違いも減っていくでしょうが、だからといって鵜呑みにするのは危険です。少なくとも、現時点での「ChatGPTの最もよい使い方」は、「知らないことを尋ねるのではなく、知っていることの文章生成のお手伝いをしてもらう」こと。

間違った情報や、表現の偏りが含まれる文章が生成されることを承知のうえで、あくまで「手伝ってもらう」ことを主眼に置くべきです。

■世界を変えるのは人間でしかない

もう一つ、懸念されるのは、外国語学習の機運が低下することです。ChatGPTを通じてあらゆる情報を文章で生成してもらえるようになると、母国語以外の言葉を学んで検索を掛けたり、文献を読んだりしなくても済むようになります。

外国語が不得意な人からすれば一見、便利に見えますが、「ChatGPTを介さなければ外国語話者と対話ができない」事態になれば、それは人類にとって必ずしも幸せな状態とは言えません。

ChatGPTの行きつく先に何があるかと考えると、私は『創世記』の「バベルの塔」を思い出さずにはいられません。バベルの塔は、人間が天にも届く塔を作ろうとして神の怒りを買い、さまざまな言語を使うように分けられて世界に散らばりました。

そのため、人間同士でありながら、言葉が容易には通じない状態になってしまったのです。それと同じ状況が、ChatGPTによってもたらされるのではないか――そんな懸念を抱いてしまうのです。

よく言われるように「ChatGPTが世界を変える」のではなく、世界が変わるのは使う側の人間の行動様式や判断基準が変わった時です。業務であれ教育であれ、「正しく使いこなす」ことが何よりも重要です。

----------

佐藤 一郎(さとう・いちろう)
国立情報学研究所 情報社会相関研究系・教授
1991年慶応義塾大学理工学部電気工学科卒業。1996年同大学大学院理工学研究科計算機科学専攻後期博士課程修了。博士(工学)。1996年お茶の水女子大学理学部情報学科助手、1998年同大助教授、2001年国立情報学研究所助教授を経て、2006年から現職。このほか、デジタル庁「政策評価有識者会議」座長、経産省・総務省「企業のプライバシーガバナンスモデル検討会」座長他を歴任。

----------

(国立情報学研究所 情報社会相関研究系・教授 佐藤 一郎 インタビュー・構成=ライター 梶原麻衣子)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください