AI、タイムトラベル、死後の世界… ホーキング博士の“オカルト発言”を竹内薫が徹底解説! 人類滅亡警告も!

tocana / 2018年11月22日 7時0分

写真

 イギリスの理論物理学者スティーブン・ホーキング博士の宇宙論から人生観までを解説した『ホーキング博士 人類と宇宙の未来地図』(宝島社)を書いたサイエンス作家の竹内薫氏への連続インタビュー企画。

――ホーキングは宇宙論を専門にしていますが、宇宙に対するSF的な夢や期待はあまり持っていないように見えます。タイムトラベルの可能性についてはあっさり否定していたり、ドライなところもありますよね。

竹内:徹頭徹尾ドライな人だと思うんですよ。自分自身がそれなりに大変な運命だから、あんまり情緒的な感じにならないですよね。キリスト教的な世界観っていうのも、もともとは砂漠から生まれているじゃないですか。それに近いような「渇き」を感じますね。

【その他の画像はコチラ→https://tocana.jp/2018/11/post_18771_entry.html】

――でも、一方では、人類を滅亡させないために警告を発したりもしていますよね。

竹内:ホーキングは常にリスクを考えるタイプの人だと思うんですよ。リスクを徹底的に評価していくと、非常にリスクの高いもの、やっちゃいけないものって出てくるじゃないですか。例えば、宇宙に対して何かメッセージを発信するのはリスクが高い。なぜならそれを感知した宇宙人が敵対的だったら人類が終わってしまうから、とか。常に人類が終わるかどうかということでリスク評価をしていますよね。

 人工知能に関してもそうじゃないですか。人工知能をどう扱うかについても、人類が絶滅するかどうかというような視点で考えていますよね。普通の人はそんなことを考えない。自分はどうなるか、自分の家族はどうなるか、ぐらいでしょう。ホーキングの場合はそれがどんどん広がっていって、人類規模のリスクを考えている。それはやっぱり天才だけの発想ですよね。凡人は人類全体のリスクまでは考えられない。考えても意味がないと思うのか、そこまで発想が広がらないのかは分かりませんけど。人類全体のリスクについて考えている人っていうのはそんなに多くないですよ。

――ホーキングはAI(人工知能)にも脅威を感じていて、AIによって人類が危機に陥る可能性があると話していたこともあるそうですね。

竹内:AIの危機っていろいろなレベルがあるんですけど、1つは意識を持ったときですよね。意識を持つまでは単なる機械なので、どんどんコスト削減のために便利に使っていけばいいし、全然怖がる必要はないと思うんですけど、意識を持つとしたら、それは新しい生命の誕生ということになると思うんです。人工知能が意識を持ったら、人間がその新しい生命体と地球上で共存できるかどうか、っていう問題になります。ただ、AIの進化については予測ができない。そのときがいつ来るのか分からないし、どういう形で来るのかも分からない。意識を持った人工知能が人間を必要とするかどうか、っていうのは人類絶滅のシナリオではありますよね。要らないって言われたらそれで終わっちゃうわけですから。

この記事に関連するニュース

トピックスRSS

ランキング