人間は、形状や色、背景なんかの属性をわけて想像できますが、AIはこれが苦手です。たとえば、オレンジ色のネコを思い浮かべ、次に同じ猫を黒色に変換。そしてその猫が万里の長城を歩いているところを……といった想像も、AIにとってはむつかしいようです。
南カリフォルニア大学ビタビ工学部(USC Vitervi)の研究チームは、学習した知識を属性に分離したうえで、再結合して新しいオブジェクトを想像するプロセスを、ニューラルネットワークでシミュレートしました。こうして開発されたAIは、人間のように属性を考慮して新しいオブジェクトを想像できます。
サンプルのグループから類似性を抽出して学習コンピュータ・ビジョンでは、一般的にピクセルからサンプルの特徴を学習します。これゆえ画像生成AIが、オブジェクトの各属性について必ずしも深く理解しているわけではありません。
研究チームは、「Disentanglement(もつれの解きほぐし)と呼ばれる概念を使用してこの制限を克服しました。Disentanglement自体は新しい概念ではなく、たとえば、元の動きを維持したままの別人の顔に挿げ替える、ディープフェイクビデオの生成なんかに利用できます。
新しいアプローチは、従来のアルゴリズムのように一度に1つのサンプルではなく、サンプルのグループから類似性を抽出して学習。この知識を再結合して画像合成するものです。これにより、サンプルに含まれていない万里の長城を歩く黒い猫が想像できるようになります。
属性の削除や変換でAIアプリケーションの幅が広がる人間がオブジェクトの色を別のもにに置き換えるように、基礎となるルールを抽出し、新しい例に適用できるAIは、アプリケーションの幅を広げる可能性があります。実際、この技術を使用して、156万枚の画像を含む新たなデータセットが生成されました。
たとえば、人種や性別に関連する知識を解きほぐすことで、より公平なAIが作成できるように。また、自動運転車では、トレーニングの中でこれまで見られなかった危険なシナリオを想像し、回避できるようになります。
参照元:USC researchers enable AI to use its “imagination.”/ USC Vitervi
(文・山田洋路)