1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

問題点ばかりの殺人ロボット開発が止まらない

プレジデントオンライン / 2019年8月29日 18時15分

2013年8月14日、米国の展示会に出品された「ロボット兵器」(アメリカ・ワシントン) - 写真=EPA/時事通信フォト

■AI兵器使用の「国際ルール」に拘束力なし

AI(人工知能)を搭載し、自らの判断で攻撃する兵器「自律型致死兵器システム(LAWS)」の是非が大きく問われている。

AI兵器を規制する国際会議がスイス・ジュネーブで行われ、8月22日に報告書がまとまった。報告書はAI兵器の使用についての初の国際ルールとなる。

国際ルールができたこと自体は一歩前進である。だが、ルールには拘束力がなく、AI兵器開発の歯止めにはならない。報告書には次のことが盛り込まれた。

①攻撃の判断は人間が責任を持って行う
②機械のロボットが自動的に標的を選んで人を殺傷することは認めない
③開発や使用をめぐっては国際人道法を順守する
④来年から再来年にかけて再び会議を開いてルールに関する議論を深める

AI兵器の開発を推進するアメリカやロシア、イギリス、韓国、イスラエルなどの国と、法的な拘束力のある規制を求めるオーストリアやブラジル、チリ、アフリカなどの国との間で大きな溝ができている。

日本は「AI兵器を開発しない」との立場に立ち、規制には「国際的に対立した状態では実効性のある法規制は難しい」との判断を示している。

■ホーキング博士らも「殺人ロボット」に強く反対

LAWSは「Lethal Autonomousu Weaponns Systems」の略である。人が命令を下さなくとも、自律的に敵を殺害する。「殺人ロボット」とも呼ばれ、世界中の科学者が禁止を強く訴えている。

なかでも昨年3月に死去したスティーブン・ホーキング博士は、2015年にテスラ創業者のイーロン・マスク氏やアップル共同創業者のスティーブ・ウォズニアック氏など1000人以上の有識者が署名した公開書簡で、「自律判断で活動するAI兵器は、火薬と核兵器に次ぐ『第3の革命』になる」と指摘して、開発禁止を強く訴えていた。

自律型ではないが、無人攻撃機となるドローンは、アメリカやイラン、イスラエルなどが爆弾を搭載し、実戦で兵器としてすでに使われている。実際、アメリカや中国は、AIによって自律的に飛行して目標物に接近、爆破攻撃を行う超小型ドローンを無数に飛ばす攻撃戦略を開発中という。

■誤爆が避けられ、無差別攻撃がなくなる?

規制派と推進派の議論は激しさを増している。規制派は「AIに人を殺す権限を与えていいのか。規制が必要だ。テロにも使われかねない」という。推進派は「いや、高度な自律能力で誤爆が避けられ、無差別攻撃がなくなる」という。双方の意見は大きく分かれている。

ここで断っておくが、沙鴎一歩はLAWSに反対である。理想論かもしれないが、戦争そのものをなくすことこそ、必要だと信じている。ロボット兵器を開発する前に、まずは「鉄腕アトム」のように人を守るロボットを開発すべきだ。言い換えれば、AIのアルゴリズムに人に危害を加えないという倫理感を盛り込む必要がある。それができない段階で、自律型のロボット兵器を開発することは拙速ではないか。

「人間の意思が介在しない状態で、人工知能(AI)が自律的に判断し、敵を殺害する。そんな兵器システムが実用化されれば、戦闘の形態が一変しかねない」

こう書き出すのは、8月23日付の読売新聞の社説である。

■人間が戦闘を管理できなくなる可能性

見出しは「AI兵器の規制 攻撃判断を委ねるべきでない」で、「技術の急速な進展に伴う予想外の事態をいかに防ぐか。各国が議論を深め、現実的な規制に向けて歩み寄ることが重要である」と訴える。

読売社説はAI兵器に否定的だ。さらにこう指摘する。

「人間が遠隔操作するドローンなどの無人兵器とは異なり、攻撃の責任の所在が不明確になりかねない。人間が戦闘を管理できなくなる可能性が懸念される」
「そもそもAIに生殺与奪の権利を握らせるべきでない、という主張もある。国際人道法や倫理面でLAWSが多くの問題点をはらんでいるのは明白である」

「攻撃の責任の所在」「生殺与奪の権利」「国際人道法と倫理面」。読売社説が指摘するように、LAWSにはまだ問題が多すぎる。その意味では核兵器と同じである。だから沙鴎一歩はLAWSに反対なのだ。

■アメリカとロシアをルール作りに引き込む必要がある

読売社説は「今回の報告書を土台にLAWSの開発や運用で実効性のあるルールを作れるかが課題となる」とも書き、こう主張する。

「例えば、規制の対象を、人間を直接殺害するよう設計された兵器システムに限る。攻撃の際、司令官の許可を得るプログラムを組み込むことで、『決断する人間の介在』を担保する。こうした具体案の議論を深める必要がある」

LAWS推進派の国が力を持つなかで、読売社説の主張する具体的な規制策は現実的な方法かもしれないが、結局は付け焼き刃にすぎない。やはりLAWS廃止が正しい。

読売社説は訴える。

「米露をルール作りに引き込み、AI兵器の透明性や各国間の信頼を高めることが大切だ。一方で、民間のAI技術の研究・開発が、軍事転用の可能性を理由に規制されることは防がねばならない」

国際会議では、力のあるアメリカやロシアをうまく巻き込むことは当然だし、「デュアルユース(民軍両用)」の問題も、常に念頭において議論する必要がある。

■痛みを感じない兵器が、生身の人間と交戦する

読売社説と反対のスタンスをとることが多い朝日新聞の社説はどうか。8月25日付の紙面で「ロボット兵器 法規制に向けて議論を」と戦争嫌いの朝日社説にしては静かな見出しを付けてこう主張している。

「だが、条約などの形で法的拘束力をもつ規制とするまでの合意には至らなかった。専門家会合は今後も話し合いを続けるという。実効性のある具体的な制度づくりに向けて、さらに検討を深めなければならない」

「さらに検討を」というこの主張もどこかもの足りない。

朝日社説は「例えば、人間の司令官による包括的な指揮・命令があれば、現場での個々の判断や動きはロボット任せで構わないとする主張がある。紛争地に投入されれば、殺し、傷つけることへの痛みを感じない兵器が生身の人間と交戦するという、映画のような光景が現実のものになる」とも書き、指摘する。

「一片の人間性も存在しない戦争とは何か、社会はそれを許容するのかという、人間の存在や倫理に深く関わる問題だ」

「戦争が人間の存在や倫理」と書くところなど朝日社説らしいとも思うが、いつものひねりや皮肉、そしてつやっぽさがない。

■なぜ朝日は「LAWS反対」とはっきり書かないのか

最後に朝日社説はこう訴える。

「まずは、人間の手を離れて作動する完全自律型兵器については一切の使用禁止を実現させたい。そのうえで、標的の把握・識別・攻撃という各局面で、AIに任せると危険な要素を洗い出し、そこに拘束力のある規制をかけるのをめざすべきだ」
「人類の知恵が試されている」

主張が弱く分かりにくい。なぜ、自律型致死兵器システム(LAWS)について「反対だ」と書かないのか。主張がはっきりしていないので、「人類の知恵」という止めの1行もしっくりこない。

朝日社説はこれまでとことん戦争に反対してきたはず。それが朝日社説の売りだった。読者のひとりとして、スタンスを明確にしない朝日社説には一抹のさみしさを感じる。

(ジャーナリスト 沙鴎 一歩)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください