既に人間によるAIへの攻撃が発生していることが判明―― エフセキュアがSHERPA Projectによる調査を発表

EnterpriseZine / 2019年7月17日 14時0分

 エフセキュアは、同社が参画しているSHERPAコンソーシアムが行ったAIに関するリサーチの結果を発表した。それによると、悪意を持った攻撃者が既にAIに対して攻撃を仕掛けていることが判明しているという。

攻撃者はAI、機械学習、スマート情報システムを悪用できるか?

 SHERPAコンソーシアム(F-Secureが参画した、6か国11団体によって構成されEUの資金サポートを受ける、倫理および人権に対するAIの影響を研究するプロジェクト)が発表した新しいレポートでは、人間である攻撃者は機械学習技術を利用できるが、機械学習を使用した新しい攻撃手法を作り出すことより、現存するAIシステムを操作して悪用することに注力している、ということが述べられている。

 このリサーチのフォーカスは、悪意を持った攻撃者がAI、機械学習、スマート情報システムをどのように悪用できるか、という点にある。研究者たちは、洗練された偽情報の作成やソーシャルエンジニアリングキャンペーンなど、今日の攻撃者の手が届く範囲にある、AIの悪質な用途を特定している。

 そして、このリサーチでは、悪意を持った攻撃者がサイバー攻撃を仕掛けるために、既にAIを使用しているという決定的な証拠は見つからなかったが、攻撃者はすでにサーチエンジン、ソーシャルメディア運営企業、レコメンドサイトなどで使用される既存のAIシステムを攻撃している。

シビル攻撃ではAIが決定を下すために使用するデータを操作する

 映画、ドラマ、小説などでは、AIが人間に対して反乱を起こし攻撃を仕掛けてくるという設定が多く用いられているが、現実には人間がAIシステムを定期的に攻撃している、ということだという。エフセキュアの人工知能研究センターのシニア・リサーチャーであるアンディ・パテル氏は、こうした現実は多くの人にとって驚きに値するものだろうとして、次のように述べている。

 「これは誤りなのですが、一部の人々はAIと人間の知能を同一視しています。殺人ロボットや制御不能なコンピュータと関連付けてAIを脅威に感じるのはそのためです。しかし、実際には人間によるAIへの攻撃は多く発生しています。レコメンドシステムのように、人々が毎日使用するAIシステムを害するように設計されたシビル攻撃(Sybil Attack)は、一般的な出来事です。こうした行為をサポートするサービスを販売している企業もあります。皮肉なことですが、実は人間がAIを恐れるべきなのではなく、AIが人間を恐れなければいけないようです」。

この記事に関連するニュース

トピックスRSS

ランキング