Google『あ』と検索するだけでポルノ画像が表示される問題に本腰

秒刊SUNDAY / 2013年6月18日 11時54分

api

Googleが児童虐待及び児童ポルノに関連する画像を検知し削除するシステムをさらに強化することが判明した。現在のシステムは『セーフサーチ』と呼ばれるある程度フィルタリングされた画像検索システムが存在するが設定を容易に変更できたり、例えば「あ」と入れただけでポルノ画像が表示されるなどネットユーザから批判を浴びていた。そこで新たなシステム開発に300万ポンド(約4億円)の資金投入を図るようだ。


http://dailym.ai/17UpPat

イギリス大手メディアDailyMailによるとGoogleがWeb上から児童ポルノに関連する画像を自動検知し削除するシステムに力を入れることを発表したという。検知システムは児童ポルノ関する画像に特殊なハッシュタグを埋め込み、削除及び検索除外させる。

現在のシステムでは完全なフィルタリングは行えず、子供がiPadなどで遊んでいる際に誤って猥褻な画像が表示されたり、セーフサーチと呼ばれる機能を外すことで簡単に画像が表示されてしまう問題があり子供を持つ親御からクレームの対象となっていた。



※参考までに画像検索で「あ」と入力するとポルノ画像が大量に検索される
(処理された箇所がポルノ画像)

※セーフサーチ設定である程度除外できるがあまり効果は無い。


また児童ポルノ画像によって犯罪を増加させている懸念もあり、Google側はいち早く撲滅をしたいという心構えで本腰を入れ300万ポンド(約4億4000万円)の資金調達をした。

広報によるとネット上の危険な画像に対し「毅然たる対応(ゼロ・トレランス方式)」で危険な性犯罪から子供を守るため、いかなる措置も辞さない意思を強調した。

本腰を入れたとしてもイタチごっこになる恐れもある児童ポルノ問題。日本でも度々話題となっておりますが、はたして特殊なハッシュタグで世の中から児童ポルノを抹殺することは可能なのだろうか。またこのシステムでワカメやしずかちゃんの入浴シーン、更に自分の子供の入浴中の写真もネット上から消えてしまうのだろうか。物議を醸しそうだ。

面白いニュース秒刊SUNDAY

トピックスRSS

ランキング