1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

OpenAI内紛の火種「AIの倫理と危険性」の正体 取り沙汰される「効果的利他主義」という考え方

東洋経済オンライン / 2023年12月19日 7時40分

OpenAIサム・アルトマンCEO解任劇の背景には「EA支持者の考えるAIに対する懸念」があったと伝えられているが…(撮影:尾形文繁)

11月半ば、OpenAIに起きた突然の内紛は、同社取締役会のメンバー刷新に伴うガバナンス強化、という形で幕を閉じた。

【画像】オープンなAI開発に向け、MetaやIBM、ソニーなどが団体を設立

現状でもなぜ内紛が起きたのかは、内部からのリークなどをソースとした「臆測記事」がほとんどであるのが実情であり、確たる証拠のある情報が出ているわけではない。ただ多くの記事では、生成AIの開発についての今後の方針、特に倫理面での考え方について、意見が分かれたとする説が採られている。

生成AIと倫理の間にはどんな関係があるのか、ここで少し情報を整理しておきたい。

忘れられた「3月の公開書簡」

今年の3月、アメリカの非営利団体Future of Life Institute(FLI)が、ある公開書簡を発表した。

その内容は、「高性能なAIは危険性を孕んでおり、制御不可能になった場合のリスクが大きい。生成AIは性能が急速に向上しており、リスクの見極めが必要であるので、GPT-4よりも強力なAIシステムの訓練を少なくとも6カ月は停止せよ」というものだった。

この公開書簡には、イーロン・マスクやスティーブ・ウォズニアックなどのテック業界の大物のほか、AI研究の大御所でモントリオール大教授のヨシュア・ベンジオをはじめとするAI研究者も多くサインしている。

そのことから当時は注目されたものの、結論から言えば、ほぼ無視される形になった。生成AIの学習は停止されず、むしろ大規模化が進行中だ。

グーグルが12月6日に発表した「Gemini(ジェミニ)」は、ゼロから学習し直した生成AI。性能の指針となるパラメーター数は公開されていないが、同社が今年5月から使ってきた「PaLM 2」よりもかなり規模が大きくなっていることは間違いない。

OpenAIも、GPT-4の改良・追加学習をずっと続けている。公開当時は2021年9月までの情報を学習した形だったが、11月に公開された「GPT-4 Turbo」以降は2023年4月までの情報で再学習が行われている。

OpenAIやマイクロソフト、グーグルなどは、FLIの公開書簡に反応をしなかった。一時は騒がれたものの、結局なにも起こらなかった。

大手も「AIの規制」には協力的

なぜなのか?

大手が利己的に技術を優先した、と考えがちだし、そうした側面もゼロではないだろう。

ただ、彼らが生成AIの危険性を意識していないのか、というとそうではない。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください