池田教授の懸念。AI活用の広がりが、社会的格差を固定化する理由

まぐまぐニュース! / 2019年4月19日 23時8分

写真

アマゾンから書籍をオススメするメールが届くようになり、「余計なお世話」でしかないものの、AIの利用法としては「至極真っ当」と語るのは、CX系「ホンマでっか!?TV」でもおなじみ、メルマガ『池田清彦のやせ我慢日記』の著者で生物学者の池田清彦先生です。ただし、AIは、すぐに結果が出ない「人間への評価」をし始めると、現在の社会的格差をもデータとして利用するために、その格差を追従することで固定化することになると警鐘を鳴らしています。

AIは格差を固定する?

アマゾンで書籍を買うようになって、しばらくした頃からお薦めの本があります、といったメールが届くようになった。私が過去に買った本の傾向を分析して購入しそうな書籍を紹介してくれるのだ。便利だと思う人もいるだろうが、私としては余計なおせっかいだ、という思いの方が強い。

こういう芸当ができるのは過去のデータを集積して、適当なアルゴリズムを働かせて、私の読書傾向を推定することが可能になったからである。AI((人工知能)のデータ集積能力と計算能力がひと昔前に比べ桁違いに高くなったおかげで、商品の販売戦略は、テレビや新聞といったマスメディアを使って、不特定多数の人に向かって行う宣伝よりもむしろ、個々人に直接働きかけるやり方がメジャーになってきつつあるようだ。

最近話題を集めている無人スーパーは、省力化を進めて、人件費を削減するといった企業にとってのメリットは大きいと思われるが、逆から見れば、レジ係はクビになる訳で、AIは雇用を奪うという巷間ささやかれている話が、現実になってくるということでもある。

客は専用のアプリや会員カードを携行しなければ入店できず、商品についているバーコードを読み取って決済しそのまま退店できる。24時間いつでも営業していることや、店員と話さなくてもいいといったことをメリットと感じる客には有難いかもしれないが、どんな商品を購入したかという個人情報は筒抜けになる(AIのビッグデータに集積される)ことを覚悟する必要がある。

AIで管理すると、どんな商品がどれだけ売れたかがリアルタイムで分かり、発注も自動的に可能になるが、しばらく店頭にあってあまり売れなかった商品はAIの判断で撤去されるといったことが起こり、余りポピュラーでない商品を買いたい客にとっては、有難くない事態になることもあるだろう。

AIは過去のビッグデータの統計解析によって店頭に並べる商品の質と量を決めるであろうから、客層が異なる地域では品ぞろえも異なってくる。但し品ぞろえを決めている最も正しいアルゴリズムがア・プリオリにあるわけではないので、適用するアルゴリズムを変えたら、売り上げも変動するに違いない。アルゴリズムの良し悪しが、売り上げによって検証されるわけだ。

売り上げを左右する因子はものすごく沢山あるので、どの因子にどれだけの重みづけをするかで、売り上げは異なってくるだろう。平日と休日の品ぞろえを変えたり、天気予報によって変えたり、試行錯誤しながらアルゴリズムは進歩していくに違いない。

AIはある因子と売り上げの相関を調べ、アルゴリズムに組み込むだろうが、相関は因果関係ではないので、過去のデータから見たらそうなりそうだという話に過ぎないわけで、根本的な状況が変われば、話は全く違ってきてしまう。これはAIで未来予測をするときに注意しなければならない重要な問題となる。

過去のビッグデータを統計解析する能力において、AIは生身の人間の能力を超えてしまったため、将棋では最高峰のプロもAIに勝てなくなってきた。野球では、例えば個々のバッターの過去のデータを分析し、守備陣の位置をバッターごとに変えることが普通に行われるようになってきた。

あるいは、ある状況でバンドをすべきか打たせるべきかの判断までAIが行えるようになってきた。7回表の攻撃で現在2点差で負けているとか、ピッチャーとバッターの過去の相性とかのデータを分析して最適と思われる選択を決定するわけだ。

野球はもちろんのこと将棋も今のところ決定論的なゲームではないので、常勝のアルゴリズムは存在しないが(ゲーム理論によれば有限回のやり取りで勝負が決するゲームは先手か後手のどちらかが必勝あるいは引き分けということなので、もし将棋がこの範疇のゲームであれば、最善のアルゴリズムが存在することになるが、将棋は千日手があるので有限ゲームではない)、過去のビッグデータの統計処理技術が進歩すれば、勝率を上げられるという点ではよく似ている。

但し、将棋ではある局面で指される同一の指し手は、AIを含めて誰が指しても同一の価値を持つが、野球ではAIが強打せよ、あるいはバンドをせよと命じても、やってみないことには結果が分からないので、偶有性の度合いはより強いという差がある。いずれにせよ、これらのゲームではアルゴリズムの良し悪しは勝負の結果により判定されるので、一番良い結果を出すアルゴリズムの信頼性は高いということになる。

先のスーパーの品ぞろえを決定するアルゴリズムや、アマゾンが顧客の購買リストを分析して、購買意欲をそそる商品の宣伝文を送り付けるアルゴリズムも結果により判定される点では同じである。これは、AIの使い方としては至極真っ当であると言える。ところがそうではない場合があるのだ。

例えば、アメリカでは従業員を雇用する際に、応募者の個人情報をAIに解析させて、雇用するかしないかを決定する企業が増えているという。このAIによる決定システムは、一見好ましく見える。従来はコネとか雇用者の好みとか容姿とか口の利き方とかといった、かなり恣意的な方法で決めていたのが、客観的なやり方に改まったので、より合理的になったように思えるからだ。

しかし、AIが利用できる個人情報は有限の過去のデータから、あるアルゴリズムに従って導いた推論にすぎず、その有効性は事後的に確かめられないという根本的な問題点を孕んでいる。

AIに競馬の勝ち馬の予測をさせれば、血統や過去の戦績、脚質、騎手、他の出走馬との比較、などの様々な因子に適当な重みづけをして、あるアルゴリズムに基づいて勝ち馬を予想するだろう。そして重要なことはこの予想が当たったか外れたかは、レースが終われば直ちにわかることだ。外れてばかりいるアルゴリズムは棄却されて、より精度の高いものにとって代わられるに違いない。

翻って、雇用決定システムでは、決定が正しかったかどうかを知るすべはない。運良く採用された人と、運悪く不採用になった人がAIというブラックボックスで決定されるだけだ。異なる会社で同じアルゴリズムが使われると、不採用になった人は、どの会社を受けても不採用になり、就職の機会を奪われてしまう。

AIは様々な個人情報に重みづけをするので、例えば、高級住宅地の出身の人と、貧乏人が多く住む町の出身の人とで、アルゴリズムに組み入れる際の重みづけが異なれば、他のすべての因子が等しくても、前者が採用になり、後者が不採用になるといったことが起こるだろう。

AIは厳密な因果関係ではなくて、相関関係による統計操作をするので、高級住宅地の出身であることと、より高い社会的信用力や知性が強く相関するというデータがあれば、これを決定プロセスに組み込むことを躊躇しない。あるいは、ある国における人種的マイノリティがマジョリティよりも社会的信用力が低いというデータがあれば、AIはより正確な決定のためという大義名分に従って、このデータを考慮するだろう。かくしてAIの無批判な利用は社会的格差を固定することに貢献するようになる。

ほんのわずかな差異で就職できなかった人や、うっかりミスで銀行口座からカードで買った品物の代金の引き落としができなかった人は、この個人データがAIに蓄積されるため、以前に比べてより就職が困難になったり、アパートを借りられなくなったり、ローンを組めなくなったりして、この情報がAI上のスコアをさらに低くして、一度、負のスパイラルに落ちると、社会的な上昇は困難を極めるようになってくるだろう。

image by: M-SUR, shutterstock.com

MAG2 NEWS

この記事に関連するニュース

トピックスRSS

ランキング