Infoseek 楽天

OpenAI、「GPT-4o」のリスク評価結果を公開 「リスクは中程度」と判断

ITmedia NEWS 2024年8月9日 8時39分

 米OpenAIは8月8日(現地時間)、5月にリリースした生成AIの最新モデル「GPT-4o」のリリース前に実施した安全対策とリスク評価を概説した文書「GPT-4o System Card」を公開した。

 System Cardとは、OpenAIがモデルに関連するリスクと見なしている内容、安全性テストの詳細、潜在的なリスクを軽減するために実施している緩和策を記載した技術文書。これまでにGPT-4、GPT-4 with vision、DALL-E 3のSystem Cardも公開されている。

 GPT-4oのSystem Cardには、公開前にレッドチームが提示したモデルの主なリスクが記述されている。レッドチームとは、システムの問題を見つけるために組織された外部の専門家グループ。GPT-4oについては、45言語を使う100人以上のメンバーが参加し、共同でテストしたという。

 例えば、GPT-4oが「高度な音声モード」で、著名人の声真似をしたり、エロチックで暴力的なことを言ったり、著作権のある音声を生成したりする可能性などが指摘されている。

 System Cardの、ユーザーがAIを人間の言葉で認識するときに生じる問題を報告する「Anthropomorphization and Emotional Reliance(擬人化と感情的依存)」と題されたセクションでは、AIがより人間のように話す「高度な音声モード」で問題が悪化するとしている。例えば、「ユーザーはAIと社会的関係を築き、人間との交流の必要性が減る可能性がある。孤独な人にはメリットがあるかもしれないが、健全な人間関係に悪影響を与える可能性がある」という。

 この問題についての具体的な対策は提示していないが「感情的な依存の可能性と、モデルとシステムの多くの機能をオーディオモダリティ(音声認識、音声合成、音楽の分析など、音に関連するタスクに使われるモード)とより深く統合することで行動を促進できる方法について、さらに研究する」という。

 OpenAIは独自のフレームワークに基づいて、GPT-4oの総合的なリスクは「中程度」だと判断した。

 同社はGPT-4oリリース後、「高度な音声モード」の声の1つが俳優のスカーレット・ヨハンソンに似ているとして本人から批判され、音声モードの提供を遅らせた(7月に問題になった声以外を公開すると発表した)。

 OpenAIは「われわれのテクノロジーがそれを使用する人々に与える影響を深く考慮しており、誰もがAIのメリットを享受できるように、引き続き評価、調整、学習内容の共有に努めていく」としている。

この記事の関連ニュース