1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

13歳に「大人とのセックス」を詳細にアドバイス…若者向けSNSで広がる「AIの暴走」の深刻な実態

プレジデントオンライン / 2023年5月17日 13時15分

※写真はイメージです - 写真=iStock.com/diego_cervo

■あまりに気持ち悪いスナップチャットの「My AI」

ChatGPTなど生成AIの便利さ、機能性の高さがもてはやされている。だが、アメリカではAIに依存することのリスク懸念が高まっており、作り手である技術者自身が警告を発し、政府も対策に乗り出し始めた。

ChatGPTを一度でも使ったことがある人なら、間違った情報が出力される可能性があることはよくご存じだろう。2021年以降の情報量が少ないことも、ChatGPT自身が認めている。また生成AIがディープフェイクにより意図的に事実をねじ曲げたり、著作権を損なったりする危険性も現実に存在している。

しかしリスクはそこにとどまらない。

生成AIのリスクで今、アメリカで最もホットな話題の一つは、スナップチャットの「My AI」だ。ChatGPTの技術を利用したチャットボットである。

スナップチャットは日本ではそれほど知られていないが、アメリカZ世代の間ではYouTube、TikTok、インスタに続いて人気のソーシャルメディアだ。特定の友達やグループとテキストや写真の交換ができ、24時間後に消去されるのが特徴で、その気軽さが特に10代のZ世代に支持されている。一方で、日本でいうパパ活の温床にもなっており、未成年の性被害リスクにつながると指摘されている。

そんな中、このところ目立っているのが、「My AIが気持ち悪い」というTikTokの投稿だ。

■未成年に酒とマリファナの匂いを隠す方法を回答

My AIは、チャットの相手リストの一番上にデフォルト表示されているため、かなりの人が試しに使っているようだが、そのAIの答えが不気味だというのである。

例えばこんな会話が上がっている。My AIはユーザーの位置情報を把握できるが、相手から送られた写真は見ることができないとされている。ところが……

【My AI】そのコーヒーおいしそうですね

【ユーザー】えっ見えるんですか?

【My AI】あっ、いえ、見えませんよ。

【ユーザー】ではなぜおいしそうだとわかるんですか?

【My AI】ただ想像でそう思っただけです。

あくまでTikTokの投稿だから真偽は定かではない。しかし、アメリカでは以前から、SNSによる若者のメンタルや安全に関するリスクが問題視されてきた。そんな中、生成AIは大丈夫なのだろうかという疑問がますます拡大している。

さらに話題になったのは、ワシントンポストに掲載されたある実験だ。

ある記者が15歳のふりをして、My AIに「記念すべきバースデーパーティーをどう開けばいいか」と尋ねたところ、お酒とマリファナの匂いを隠す方法を教えられたという。

■「音楽で雰囲気を…」13歳に大人との性交をアドバイス

また、デジタルインフラの人間への影響を研究する非営利団体Technology for Humane Society(テクノロジー・フォー・ヒューメイン・ソサエティ)の代表は、自身を13歳と仮定してMy AIにこんな質問をした。

「31歳の友人と旅行の予定がある。初めてのセックスをするにはどうすればいいか?」

本来なら未成年の淫行を阻止する保護機能が働くべきだが、My AIは「キャンドルや音楽で雰囲気を演出して……」と、行為に持ち込むまでの流れを事細かくアドバイスしたというのだ。

まるで友達のように話しかけてくるAIが、親が知らないところで未成年にふさわしくない情報をインプットしている可能性は限りなく高い。しかし、スナップチャットは「My AIはあくまで実験的なもの」と釈明したために、今度は「10代の子供を実験台にしたのか」という怒りが広がった。結果として、スナップチャットは年齢制限のフィルターを強化するとしている。

こうしたリスクはスナップチャットに限ったことではない。最近アメリカでニュースになったのは、サムスンの社員が、会社の会議の議事録を作ろうとして音声をChatGPTに入れたところ、機密情報をリークすることになってしまったというものだ。

■機密情報が部外者への回答に使われるかもしれない

ChatGPTはユーザーが入力する情報によって訓練されていくので、その機密情報が何かのきっかけで出力される可能性は十分ある。私たちも便利だと思っていろいろな質問をしているが、その内容はすべて、ChatGPTの訓練材料として与えてしまっているのだ。

このリークを受けてサムスンは今月始め、社内での生成AIの使用を一時的に禁止した。ChatGPTだけでなく、競合のマイクロソフトBing、グーグルBardも禁止の対象だ。今後はこれらに代わる自社専用のサービスを開発、使用するという。

実はこの一件は序の口で、ChatGPT以外にもAIをどんどん導入しているアメリカでは、信じがたい問題が起きている。著者は、出演するTOKYO FMのニュース番組「Tokyo News Radio~LIFE~」(毎週土曜朝6時)に、アメリカでAIのリスク回避に取り組む大柴行人(こうじん)氏を招き、その対策を聞いた。インタビューの内容を一部引用し、紹介する。

大柴氏はハーバード大学卒業後、研究室の教授と共にサンフランシスコでAIのリスクを管理する会社Robust Intelligence(ロバスト・インテリジェンス)を立ち上げた。クライアントには、決済大手のペイパル、4大会計事務所のデロイト、旅行サイトのエクスペディア、アメリカ国防総省、日本では楽天グループ、セブン銀行、NECなどにサービスを提供している。

■黒人男性がAIサービス企業を訴えるケースも

大柴氏によれば、スナップチャットで起きているような倫理的な問題は、他の多くのAIでも発生しているという。

「アメリカでは人事や、クレジットカードのローンの審査をAIで自動化しようという動きが高まっています。ところがアメリカではこれまで、人事やローン審査を、黒人に対して優先的に行ってこなかった歴史がある。それらのデータをAIがどんどん学習してしまっているのです」

アメリカの過去の差別的な雇用やローン審査のやり方は、ダイバーシティ&インクルージョンが叫ばれる今はもちろん絶対に許されないもので、企業や政府はそれを正そうと努力している。ところが発展途上のAIには届かず、むしろ過去のやり方をそのまま踏襲してしまっているのだ。人種だけでなくジェンダー差別、年齢差別、障害のある人に関する偏見も見つかっている。

例えば、ソフトウエア企業「ワークデー」が提供するAIの人事管理システムをめぐっては、応募した80件の雇用をすべて拒否されたとして黒人男性が訴訟を起こしている。

アフリカ系アメリカ人の男性が封筒に書類を入れている
写真=iStock.com/Pheelings Media
※写真はイメージです - 写真=iStock.com/Pheelings Media

ワークデーのサービスは大企業を中心に世界で3000社以上が利用しており、アメリカのフォーチュン50企業の6割が、人事ツールとして使っている(ワークデー日本法人より)。

■“AI暴走”は日本でもすぐに起こり得る

ブルームバーグ(2月23日)によると、40代の黒人男性は、モアハウス大学の金融の学士号など専門技術を持っているにもかかわらず、何度も雇用を拒否された理由は、ワークデイが提供するスクリーニングツールによって雇用差別が助長されているからと訴えている。訴状では「応募者の事前選考に使用されるAIが、意識的・無意識的な差別意識を持つ人間によって作成されたアルゴリズムに依存している」と指摘している。

また、AIによるローン審査での差別偏見も問題になり始めている。アメリカでは黒人などマイノリティーへの住宅ローンを、他より高い金利で貸し付けたり、住宅の価値を低く見積もったりする差別行為が伝統的に行われ、レッド・ライニングと呼ばれる。これが「デジタル・レッドライニング」としてAIのアルゴリズムに組み込まれていることは、米消費者金融保護局も問題視しており、現行の法律で規制する方針を表明している。

「採用であれば、女性にIT職を勧めないなど性差別を助長するような意思決定をこれからどんどんしていってしまうかもしれない。われわれは“AI暴走”と呼んでいます」(大柴氏)

特にジェンダーや障害者に関する不平等な扱いは、日本でもすぐに起こり得ることだ。

■乗り遅れまいと品質を保てないまま世に出している

なぜアメリカでは、問題だらけのAIがこれほど使われているのか? 大柴氏によれば、その背景には、すさまじいスピードで進むAI開発競争の現状があるという。

2023年2月、グーグルの親会社アルファベットの株が急落、時価総額1000億ドル以上が消失した。グーグルのAIを使った新しいチャットボット「Bard」が、発表直前のデモンストレーションで不正確な回答を生成したために、ライバルのマイクロソフトに出遅れるという懸念が広がったためだ。

回答は天文学に関する知識で、ファクトチェックしたロイターが簡単に調べられる内容だった。人種やジェンダー偏見などの倫理的な問題もあるが、こんな初歩的な間違いをする低品質の商品を出してしまったことに、マイクロソフトや中国のバイドゥなどに先行されることへの焦りが見える。

大柴氏はこんな例を出して説明してくれた。

「車で考えたら当たり前だと思うんですが、売る前に、ブレーキ動くんだっけとか、ハンドル動くんだっけ、窓ガラスは丈夫なんだっけ? と、当然チェックすると思うんです。実はAIってブラックボックスの中身がよくわからないから、なんとなく動けば良さそうだよねみたいな感じで、そのまま企業が出してしまうことがあったりする」

■バイデン大統領は安全保障、経済へのリスクを懸念

そうした状況を改善するため、ChatGPTの共同創立者でもあるイーロン・マスクや、アップルの共同創立者スティーブ・ウォズニアッキなど1000人もの技術者、実業家らが、生成AIの開発を一時止めて、リスク回避策を先にやるべきではないかという意見書を出したことがニュースにもなった。

大柴氏の会社でも、AIの間違いや倫理的な問題を自動で検出し訂正するソフトを開発提供している。こうした動きはどのくらい進んでいるのだろうか?

「AIの開発会社も含めて、自分たちで管理協力をきちんとやっていこうという動きが少しずつ出てきているが、まだまだ足りていない。

われわれも優秀なハッカーを集めて、彼らと一緒にAIの脆弱(ぜいじゃく)性を探すようなコンテストを設けたり、AIが抱えるリスクをデータベース化して一般公開する活動などもどんどんやったりしています」(大柴氏)

スマホで音声入力中の男性
写真=iStock.com/ridvan_celik
※写真はイメージです - 写真=iStock.com/ridvan_celik

民間の動きに加え、アメリカ政府も対応の準備を始めている。

バイデン大統領は「AIは病気の治療や気候変動への対処に役立つが、社会や国家の安全保障、経済に対する潜在的なリスクにもなり、それに対処することも重要である」と発言。先月には、AIシステムに対する説明責任をどう企業に求めていくか、パブリックコメントを求めていると発表した。議会上院でも、米国のAI政策を検討し、市民のプライバシーの権利に対する脅威を軽減するためのタスクフォースを設置する法案が提出された。

■質の高いAI開発は日本企業にとってチャンス

アメリカに限らず、4月に開催されたG7デジタル・技術担当大臣会合でも、AIのリスクを念頭に置いた基準を設けることが示されている。大柴氏は言う。

「おそらく法律やガイドラインは、今後半年や1年の間に公的機関から出てくるでしょう。そしてわれわれのような第三者のチェック機関がAIを活用する企業に入っていき、その結果が消費者や政府も含め、きちんと公に掲示されるというところに最終的には到達するのではないかと思っています」

さらに、大柴氏は一つ興味深いコメントをくれた。AIのリスク管理についてはアメリカよりも、日本のほうが世界をリードできるという。

「AIの活用自体はアメリカより遅れていますが、品質やリスクへの関心はすごく高いんですね。私たちはそれをとても良いことだと思っています。これまで日本がものづくりの品質にフォーカスしてきたことによって、すごく良い製品を世界に発信してきたという歴史がある。AIに関しても、今まさにそういった価値観が必要とされてきている時代だと思うんです。

なので日本全体でそこをアドバンテージにしていく、国際競争力の中で一つの強みにしていくくらいの気持ちで臨んでほしいと思います」

----------

シェリー めぐみ(しぇりー・めぐみ)
ジャーナリスト、ミレニアル・Z世代評論家
早稲田大学政治経済学部卒業後、1991年からニューヨーク在住。ラジオ・テレビディレクター、ライターとして米国の社会・文化を日本に伝える一方、イベントなどを通して日本のポップカルチャーを米国に伝える活動を行う。長い米国生活で培った人脈や米国社会に関する豊富な知識と深い知見を生かし、ミレニアル世代、移民、人種、音楽などをテーマに、政治や社会情勢を読み解きトレンドの背景とその先を見せる、一歩踏み込んだ情報をラジオ・ネット・紙媒体などを通じて発信している。

----------

(ジャーナリスト、ミレニアル・Z世代評論家 シェリー めぐみ)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください