1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

OpenAI内紛の火種「AIの倫理と危険性」の正体 取り沙汰される「効果的利他主義」という考え方

東洋経済オンライン / 2023年12月19日 7時40分

ビッグテック規制論が幅をきかせ、大手はそのことに反発の姿勢を示すことは多いものの、生成AIの活用ルールに「各国政府に協力する」姿勢を明確に示している。OpenAIのサム・アルトマンCEOにしろ、グーグルのスンダー・ピチャイCEOにしろ、生成AIの活用ルール策定という面では、政府による規制には前向きな姿勢を示している。

生成AIにはハルシネーション(間違った情報)の生成やフェイク作成への活用といった課題がつきまとっており、その対策は必須だ。12月14日には、自民党デジタル社会推進本部が、法制化を前提とした「AIの安全性確保と活用促進に関する緊急提言」をまとめた。政府も年内に、これに沿う新ガイドラインを年内に策定する予定だ。

国際的にルールが作られ、そのルールの中でビジネスを加速するのが1つの既定路線であり、各国も大手もその中で動いている。もちろんそれは「危険性」を理解しているからでもあるわけだ。

そもそもアルトマンCEOは、ChatGPTフィーバーの最中である今年前半、世界各地を回ってメディアに対応、「AIの活用には危険が伴う」こともアピールしていた。彼ら自身が、急速な発展に伴う危険性や倫理の問題に向き合う姿勢を示していたわけだ。

だがそれでも、冒頭で挙げたFLIによる懸念表明は、ほぼ無視された形である。

なぜなのか?

結局のところ、もっとも大きな要因は「懸念がどこまで正しく、切迫したものであるのか、誰も正確に答えることができない」からでもある。

生成AIが急激に賢くなり、人間に近い論理的思考や分析力を持つ時代は確実にやってくる。ただ、そこまでに超えなければいけない山はまだ多数ある状況だ。

2020年にGPT-3が発表され、2022年11月にChatGPTが公開されてからまだ1年くらいしか経ってない。だが、特に2023年中に起きた生成AIの進化はめざましかった。いきなり来年、数々の山を越えて「汎用人工知能(AGI)」が実現する可能性も、まったくのゼロとは言い切れない。

ただ逆に、5年経ってもAGIに達成していない可能性もある。

重要なのは「誰も明確なことは言えない」という点に尽きる。

そこで「まずは止まって考え直すべきだ」という人々がいる一方で、「作らないと先は見えない」と考える人々もいる。アルトマンCEOは明確に後者の立場である。

内紛の発端は「効果的利他主義」か

OpenAIでの内紛も、結局は「止まるべきか加速すべきか」に発火点があったのではないか……と言われている。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください