1. トップ
  2. 新着ニュース
  3. 国際
  4. 国際総合

「10%の誤り」知りながらAI活用か ガザ、民間人被害が拡大 イスラエルのネット雑誌報じる

産経ニュース / 2024年5月7日 22時18分

防衛大学校の黒崎将広教授(本人提供)

イスラエルがパレスチナ自治区ガザで行ったイスラム原理主義組織ハマスへの攻撃で、「10%」の誤った標的を選定する恐れがある人工知能(AI)を活用したとの観測が出ている。ガザでは民間人の犠牲が急増し、米欧がイスラエルに標的を絞って精密攻撃を行うよう求めた経緯がある。

イスラエルのオンライン雑誌「+972」が4月初め、AI運用に携わった軍情報機関員6人の匿名証言を基に報じた。それによると、AIはガザ住民約220万人の多岐にわたるデータを学習、ハマスとの関係の深さをランク分けした。

AIはハマスの奇襲を受けた昨年10月7日からの数週間で、住民3万7千人とその自宅を攻撃対象候補に選定した。うち数百件を無作為抽出して人間の手で確認したところ、90%はハマスと関係があったことが判明し、軍はAIに依存するようになったとしている。

証言によると、AIは対象人物が帰宅した時点で通知する仕組みで、同居する妻子らに多数の犠牲者が出た。国連は2月、ガザの死者の70%は女性と子供だと推計している。AIが帰宅を確認した標的が数時間後の爆撃時、別の場所に移っていたこともあった。

AIがハマス戦闘員と同じ氏名の人や、戦闘員が以前使った携帯を持っていた人を誤って攻撃対象候補に挙げた事例もあった。ある情報機関員は「(AIの対象選定は)現実と結びついていない」と証言した。

軍はハマス幹部1人を殺害するのに百人以上の民間人が犠牲になる攻撃も許可した。「幹部は病的な興奮状態」で「もっと標的(の情報)をよこせ」と要求したとの証言もあった。

軍は同誌に対し、AIは標的選定の「補助用具」に過ぎず、依存していないと主張した。

(中東支局 佐藤貴生)

「10%誤り」認識なら人道法違反の可能性 防衛大学校・黒崎将広教授(国際法)

報道が事実であれば、10%は間違える可能性があることを知りながらAIを使用したことになり、ジュネーブ諸条約や追加議定書などで構成される国際人道法に違反した可能性がある。

標的の評価を間違えて攻撃した場合、民間施設や民間人と区別して軍事目標を攻撃するよう定めた「区別原則」違反に問われる。結果的に正しい標的を攻撃した場合でも、10%誤る可能性を防ぐ措置を取っていなければ、民間施設や民間人への誤った攻撃を防ぐ義務があると定めた「予防原則」違反となり得る。

イスラエルは追加議定書には不参加だが、この2つの原則は慣習法として順守する立場をとっている。

ハマスの司令官を攻撃する際、多数の民間人が巻き添えになってもよいとの命令をイスラエル軍が下していたとしても、ただちに違反にはならないが、標的を10%間違える可能性があると知っていて攻撃したのなら無視できない。

特に、敵対行為に直接参加していない民間人などの非軍事目標を直接攻撃する可能性を知っていたのであれば、故意の区別原則違反となり戦争犯罪に該当し、国際刑事裁判所(ICC)の訴追対象になると思う。

AIの軍事利用については規制の議論が進んでいる。人間の指揮命令系統の下で運用し、責任の所在を明確にすることが目的だ。米国が主導して作成された政治宣言には日本など50を超える国・地域が支持表明している。

昨年11月には米ニューヨークでこの宣言に関する初会合が開かれており、イスラエルとハマスの戦闘がAI規制の機運を醸成したことは間違いない。(談)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください