サンフランシスコで開かれた世界的なRSA情報セキュリティカンファレンスは、情報とインターネットのトップ研究者が一堂にする夢のような空間だ。だがもし、25年後には人間がインターネットの管理者としての資格を失っていたとしたらどうだろう?
オックスフォード大学の哲学教授で「人類の未来研究所(Future of Humanity Insutitute)」の創設者であるニック・ボストロムは基調講演で、人工知能(AI)を人間と同じくらい賢くしようとするあまり、その潜在的な危険性を忘れてはならない、と警告した。
「その時、AIは人間にとってもはや好奇心をそそる玩具ではなくなる」と、ボストロムは言う。「それは、人類にとって最悪の発明になる」
「無限の素質」を備えた存在が
ボストロムはAIについて3つの予測をした。1)2050年までには、AIが人間と同じ知性を持つ可能性は非常に高い。2)人間のコントロールが及ばない超知能(スーパーインテリジェント)マシンが台頭する可能性もある。3)この超知能は、技術の力で宇宙を征服するほど、あるいは人類を絶滅させられるほどの「無限の素質」をもつかもしれない。
「無限の素質」などというとニューエイジ的に聞こえるが、ボストロムはAIに関する哲学と倫理の第一人者だ。彼のAIに対する警戒心は、電気自動車のテスラ・モーターズを創業したイーロン・マスクをはじめ、多くのシリコンバレーの天才たちにも支持されている。
ボストロムはAI研究者たちの熱気を喜ばしく思うと同時に恐れている。例えば、グーグルの人工知能がサイケデリックな「夢」を見た、という「進化」などは、ボストロムを落ち着かなくさせる。
ボストロムはこの状況を、ギリシャ神話のミダス王の物語に重ね合わせる。ミダス王は、手に触れるものすべてが黄金に変わる魔法を神から授かったが、食べるものまでが黄金になって飢えてしまう。「我々も、扱いきれない夢の実現を求めているのではないか」とボストロムは言う。
ボストロムがAIの専門家を対象に行ったアンケート結果によると、2040~2050年の間に人間レベルのAIができる確率は50%と、大半が回答した。「絶滅リスク」を減らす時間はまだ数十年ある。まず備えを固めよう、とボストロムは言う。「我々が生きている間に知性をもつ機械が表れるというのは、今や主流の考えになったのだから」
スン・リー
オックスフォード大学の哲学教授で「人類の未来研究所(Future of Humanity Insutitute)」の創設者であるニック・ボストロムは基調講演で、人工知能(AI)を人間と同じくらい賢くしようとするあまり、その潜在的な危険性を忘れてはならない、と警告した。
「その時、AIは人間にとってもはや好奇心をそそる玩具ではなくなる」と、ボストロムは言う。「それは、人類にとって最悪の発明になる」
「無限の素質」を備えた存在が
ボストロムはAIについて3つの予測をした。1)2050年までには、AIが人間と同じ知性を持つ可能性は非常に高い。2)人間のコントロールが及ばない超知能(スーパーインテリジェント)マシンが台頭する可能性もある。3)この超知能は、技術の力で宇宙を征服するほど、あるいは人類を絶滅させられるほどの「無限の素質」をもつかもしれない。
「無限の素質」などというとニューエイジ的に聞こえるが、ボストロムはAIに関する哲学と倫理の第一人者だ。彼のAIに対する警戒心は、電気自動車のテスラ・モーターズを創業したイーロン・マスクをはじめ、多くのシリコンバレーの天才たちにも支持されている。
ボストロムはAI研究者たちの熱気を喜ばしく思うと同時に恐れている。例えば、グーグルの人工知能がサイケデリックな「夢」を見た、という「進化」などは、ボストロムを落ち着かなくさせる。
ボストロムはこの状況を、ギリシャ神話のミダス王の物語に重ね合わせる。ミダス王は、手に触れるものすべてが黄金に変わる魔法を神から授かったが、食べるものまでが黄金になって飢えてしまう。「我々も、扱いきれない夢の実現を求めているのではないか」とボストロムは言う。
ボストロムがAIの専門家を対象に行ったアンケート結果によると、2040~2050年の間に人間レベルのAIができる確率は50%と、大半が回答した。「絶滅リスク」を減らす時間はまだ数十年ある。まず備えを固めよう、とボストロムは言う。「我々が生きている間に知性をもつ機械が表れるというのは、今や主流の考えになったのだから」
スン・リー