殺人ロボット「とにかく禁止」は短絡的?「敵味方の区別難しい」現代戦争での論点

弁護士ドットコムニュース / 2018年4月14日 9時38分

写真

関連画像

AI(人工知能)の研究が活発になる中で、いわゆる「殺人ロボット」(キラーロボット)の開発に対する懸念が広がりつつある。

たとえば、韓国の大学「韓国科学技術院」がこのほど、AIを用いた兵器の研究センターを開設したところ、世界トップクラスの研究者から「殺人ロボットの開発につながる」という批判が起きた。

報道によると、技術院側は「ロボット兵器の開発に関わる意思はない」と表明したということだ。殺人ロボットを規制するルールについて、どう考えればいいのだろうか。ロボット法にくわしい小林正啓弁護士に聞いた。

●「兵士と民間人を区別せず攻撃するものは許されない」という事実上の合意がある

「ロボット兵器には、大きく分けて、2つのタイプがあります。1つは、米軍のプレデター(無人航空機)のような、遠隔操作型のロボット兵器です。もう1つは、映画『ターミネーター』に出てくるような、完全自律型のロボット兵器です。

この2つの決定的な違いは、『人間を攻撃する』か否かの決定について、人間が操作しておこなう(遠隔操作型)か、ロボット自身が決定する(完全自律型)か、にあります。

現在おこなわれている国際会議では、この2つが、あえて混同されているふしがありますので、注意しないといけません。典型的なロボット兵器といえば、後者の完全自律型を意味します」

ロボット兵器は国際的に、どういう扱いになっているのだろうか。

「自律型ロボット兵器というと、ターミネーターのような高度なものを想像しがちですが、実は地雷も、接触したら爆発するという、原始的で単純なロボット兵器と言えます。クラスター爆弾も、不発弾は地雷と同じ危険性を有します。

こうした兵器は、兵士も民間人も区別せず攻撃するため、現在は、禁止する条約が成立しています。高度自律型のロボット兵器も、兵士と民間人を区別せず攻撃するものが許されないことについては、国際的に事実上の合意があると言ってよいでしょう」

●ロボット兵器について「思考停止」になりがち

それでは、ロボット兵器をめぐって、どんな論点があるのだろうか。

「問題になるのは、(1)敵味方の兵士や、兵士と民間人を的確に区別して、交戦規定(Rules of Engagement)を遵守するロボット兵器であれば、容認できるのか、(2)容認できるとして、そのロボットが誤って民間人を攻撃したり、降伏してきた敵兵を攻撃したりした場合、誰が責任を負うか――という点です。

×


この記事に関連するニュース

トピックスRSS

ランキング