1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

飲めないのに「コーヒーが好き」…なぜAIの言葉は嘘っぽく聞こえるのか

プレジデントオンライン / 2021年3月15日 11時15分

お客から料理の注文を受けるソフトバンクのロボット「Pepper(ペッパー)」=2020年11月5日 - 写真=EPA/時事通信フォト

人型ロボット「ペッパー」など、人間と会話できるよう開発されたAIは多い。だが、中には違和感のある回答をする場合がある。対話システムを研究している名古屋大学大学院教授の東中竜一郎氏は、「例えば、AIが『コーヒーが好きです』と話すと嘘っぽく聞こえる。これは共感することの難しさを端的に示している」と指摘する――。

※本稿は、東中竜一郎『AIの雑談力』(角川新書)の一部を再編集したものです。

■ロボットに感情を持たせることはできる?

ペッパーがリリースされた際、感情を理解することができると大々的にアピールされていました。また、りんなもユーザと感情を伴った交流ができることを特徴としています。人間らしいロボットの話題になると、多くの人は「感情を持っているロボット」を想像するようです。多くの人は「あの人はロボットみたいだ」と言われると感情がないと指摘されたように感じると思います。

感情を理解できることは対話システムにとって重要です。相手が悲しい時に、まったくそれを理解しない無神経な話をしてしまったり、相手が喜んでいるときに一緒に喜べなかったら、社会的にまったく不適切でしょう。米軍が作っている兵士向けのカウンセリングシステムも話者の感情を推定し、適切な対話戦略を取るように作られています。

■人間は意外なほど話し相手に共感している

感情理解の目的の一つは共感にあるといっても過言ではありません。共感なくして、信頼は生まれません。ここでは雑談AIにおける共感について触れておきたいと思います。

人間にとって共感は非常に重要で、人間同士の雑談のデータを収録して発話意図のラベルを付与したところ、共感・同意という発話意図のラベルは全体の12%もありました。つまり、8回に1回ほど同意や共感を示していることになります。これは大変多いのではないでしょうか。

共感的にふるまうロボットは、より信頼を得られることが知られています。ゲームなどで相手となる対話システムでは、共感をすることでより相手に信じてもらいやすくなることが示されています。私たちの研究グループでも雑談AIにおける共感の影響について調査をしています。

たとえば、好きな動物・嫌いな動物についての雑談を行うシステムを作ったことがあります。このシステムでは、共感を行う頻度をコントロールできるようにしてありました。そして、全然共感しないシステムや少し共感するシステム、かなり共感するシステムなどを作り、共感した回数とユーザの行動や対話の満足度の関係を調べました。

■AIが共感すると、ユーザの満足度が上がる

ある設定のシステムは、ユーザが「猫が好きです」と言ったのに、「私は猫が嫌いです」と言ったりします。別の設定のシステムでは、同じようなユーザの発話に対して「分かります。私も猫が好きです」と言ったりします。すると、共感するシステムのほうがユーザの満足度が高い結果に。また、面白いことに、システムの共感の回数が多いほどユーザの共感の回数が多い傾向が見られました。

つまり、システムが共感をすればするほど、ユーザも共感する傾向にあったのです。共感するということは、少なくとも相手を気に掛ける、相手がどう思っているのかを考えるということです。共感することにより、ユーザからのそうした行動を引き出しうることは、ユーザとの信頼関係を築く上で、極めて重要な結果です。

私たちが作った別の共感を行う雑談AIは、自身のエピソードを持っており、それに基づいて相手に共感を示します。旅行についての雑談を行うのですが、ユーザが「清水寺を見て京都が楽しかった」という内容の発言をすると、自身のエピソードに似た内容がないかを探します。そして、たとえば「銀閣寺を見て京都を楽しんだ」というエピソードがあったとすると、「私も京都に行きました。銀閣寺を見たのですが楽しかったです」といった応答ができます。

2016年10月6日の銀閣寺
写真=iStock.com/tapanuth
※写真はイメージです - 写真=iStock.com/tapanuth

これは、単に同意や共感を示しているだけではなく、自身の経験に裏打ちされた共感です。このようにエピソードを持たせることによって、共感をより深いものにすることが可能です。

■嘘っぽく聞こえる「発話の帰属」問題

ただ、気を付けなくてはいけないのはロボットや対話システムに本当に共感ができるのかという点。ここは対話研究者の中でもよく話題に上ります。たとえば、雑談AIが「コーヒーが好きです」と言ったとして、システムはコーヒーが飲めないわけです。なので、どうしても嘘っぽくなってしまいます。「京都に行ったのですが清水寺がきれいでした」と言っても、「ほんとかよ?」となります。

こういう問題を、発話が誰のものかという意味で、発話の帰属の問題と言ったりします。発話の帰属の問題があるために現状の雑談AIでは真の意味で共感ができていると言えないでしょう。

一部の対話システムではこの問題を避けるために、伝聞調を利用します。「ネットでおいしいと言っている人がいました」「京都に行った人が大変良かったと言っていました」のように話すというものです。このやり方は比較的ユーザに受け入れられることが分かっています。今のシステムはコーヒーを飲んだり自分の意志で京都に行ったりできませんが、将来的にはそのようなシステムも出てくると思います。そうすると、システムの共感もより人間に伝わるものになるでしょう。

■共感は人間同士でも難しい

共感の難しさを示すエピソードを一つ紹介します。共感のやり方の一つに言い換えがあります。相手の言っていることを、ちゃんとわかったことを示すために自分の言葉で言いかえて相手に伝える方法です。これによって、表面だけではなく、内容まで分かってもらえたと伝えることができるメリットはあるのですが、実はそうとも限らないのだとか。

相手のことを聞くことだけを専門にするサービスがあります。その会社の方にヒアリングする機会があったのですが、そのマニュアルによれば相手の言うことを一字一句そのまま繰り返した方がよい場合もあるというのです。そのような場合は、お客様が「猫がかわいい」と言ったら「猫はかわいいですね」と相づちを打つのが正解で、「猫は愛らしいですね」などと言うと、「愛らしいなんて言ってない! 勝手に分かったようなことを言うな」と言われてしまうそうです。これは共感することの難しさを示していると思います。

女性とロボットの握手
写真=iStock.com/Mikhail Konoplev
※写真はイメージです - 写真=iStock.com/Mikhail Konoplev

■行間を読めないと勘の悪いシステムになってしまう

雑談AIは聞いたこと以上を理解する必要もあります。そうしないと、勘の悪いシステムになってしまいます。「行間を読む」といいますが、スムーズなコミュニケーションのためには、言葉に現れない「言外の情報」を理解することが重要です。

文脈における言葉の意味を解釈する研究のことを語用論と言います。「今日は暑いですね」とユーザが言ったら「クーラーをつけてほしい」という意味であると解釈するのが語用論です。よく「京ことば」などがテレビでも話題になりますが、京都でお茶漬けを勧められたり、時計を褒められたりしたら要注意です。それはそのままの意味ではなく、「もういい時間だから帰ってほしい」という意味だと思われるからです。

私たちの研究グループでは、人間同士の雑談から得られた発話のそれぞれについて、どういう言外の情報が含まれているかを多くの人に書き出してもらい、それらをまとめ上げることで、言外の情報を類型化しました。その結果、大きく二つのグループに分かれることが分かりました。一つは「思考」に関するグループで、もう一方は「事実」に関するグループです。ユーザが何か言うと、ユーザの考えが伝わってくる場合と、ユーザに関する事実が伝わってくる場合があるということです。

■ひとつの発話には「思考」と「事実」が詰まっている

思考に関するグループは、さらに、信念(自分がどう思っているか、自分が相手のことをどう思っているのか)が伝わる場合と、願望(自分はどうしたいのか、自分は相手にどうしてほしいのか)が伝わる場合に分かれます。

東中竜一郎『AIの雑談力』(角川新書)
東中竜一郎『AIの雑談力』(角川新書)

「ダイエットに成功したなんてすごいですね!」という発話からは「ダイエットは大変だと思っている」とか「相手のことを尊敬している」ことが伝わります。「風邪をひきました」という発話では、「相手に慰めてほしい」や「早く元気になりたい」といった願望が伝わるでしょう。先ほどの京ことばの例は、相手にどうしてほしいかの願望が伝わる場合に分類されると言えます。

事実に関するグループは、さらに、自分のプロフィール・経験・環境に関するものと一般的な事実についてのものに分かれます。「この間授業参観に行った」という発話からおそらく「結婚をしている」「子供がいる」というプロフィールについての情報が伝わるでしょうし、「この間、富士山に紅葉を見に行きました」という発話からは「富士山には紅葉の見どころがある」といった情報が伝わります。

ユーザ発話にどのような言外の情報が含まれているかを認識できれば、協調的な反応をすることができます。たとえば、授業参観の話を相手が切り出して来たら、「お子さんは何歳ですか?」と言ったり、慰めてほしい話者には慰めると喜んでもらえるでしょう。

■一方、注意点も

一点注意があって、言外の情報はあまり口に出さないほうがよいということ。特に、相手に対して否定的な言外の情報を得たとしても口に出すことはしないほうが得策です。また、相手の願望を認識したとしても、それも口に出さないほうがよいでしょう。「慰めてほしい」という情報が伝わったとしても、相手に「慰めてほしいのですね?」などと言うと嫌がられてしまいます。

会話において話者がどのように相手に配慮して話すかを説明するポライトネス理論があります。これによれば人間は「相手からよく思われたい」特性と、「相手に自由を侵害されたくない」特性があります。相手に対して否定的な内容を言ったり、相手の願望を決めつけてしまったりすることは、これらに反するのです。よって、言外の情報は理解しつつ、心の中に押しとどめておいて、ユーザに協調的にふるまうことが大事です。人間社会でもそうですが、思ったことをそのまま言えばよいわけではありません。

----------

東中 竜一郎(ひがしなか・りゅういちろう)
名古屋大学大学院情報学研究科教授
慶応義塾大学環境情報学部卒。同大学大学院政策・メディア研究科博士課程を修了し、博士(学術)を取得。NTTコミュニケーション科学基礎研究所・NTTメディアインテリジェンス研究所上席特別研究員を経て、現職。NTT客員上席特別研究員、慶応義塾大学環境情報学部特別招聘教授。専門は対話システム。著書に『おうちで学べる 人工知能のきほん』(翔泳社)、共著・共編著に『人工知能プロジェクト「ロボットは東大に入れるか」 第三次AIブームの到達点と限界』(東京大学出版会)、『Pythonでつくる対話システム』(オーム社)などがある。

----------

(名古屋大学大学院情報学研究科教授 東中 竜一郎)

この記事に関連するニュース

トピックスRSS

ランキング