AIにおける「規制するリスク」と「規制しないリスク」 それぞれの難しさ
ニッポン放送 NEWS ONLINE / 2024年2月6日 17時40分
東京大学先端科学技術研究センター特任講師の井形彬が2月6日、ニッポン放送「新行市佳のOK! Cozy up!」に出演。「AIの安全性を巡る標準化」について解説した。
「AIの安全性を巡る標準化」
AI技術の急速な発展に対する期待が高まっている一方で、AIによる無断学習や画像生成における著作権の問題、さらには個人情報や機密情報の取り扱いなど、AI技術に関わる制度的、法律的、そして倫理的な課題への対応の遅れが指摘されている。
新行)AI技術の問題について、2月7日に国際シンポジウム「AIの安全性を巡る標準化:リスク・機会・国際協力」が開催されます。このシンポジウムは井形彬さんの東京大学先端科学技術研究センター経済安保プログラムと、駐日英国大使館による共同開催で、イギリスのリンディ・キャメロン国家サイバーセキュリティセンター長官も出席されるということです。
井形)こちらは共催に加えて、後援として外務省、サイバーセキュリティ戦略本部、慶應義塾大学も入っていただいている、かなり大掛かりなシンポジウムです。いま各国で「AIに対する規制をどうするか」が大きな課題になっています。それを日本国内だけで議論するのではなく、国際的に一緒に相談しながら話す場が必要だと思い、今回のシンポジウムを企画しました。
イギリスで「AI安全研究所」が発足
新行)イギリスでは2023年11月に「AI安全研究所」が発足したそうです。
井形)AIにはリスクがありますが、それをどのようにバランスするかが重要です。そのような問題を考える研究所として、イギリスに「AI安全研究所」ができました。日本でも似たようなものをつくる必要があると、2023年の段階から自民党のホワイトペーパーで議論されています。実際に2024年につくる方向で動いています。
AIを規制することも、しないこともそれぞれリスクがある
新行)AIは悪用されると危ないけれど、使い方によっては非常に便利なイメージもあります。そのバランスを考える必要がありますか?
井形)最近ではChatGPTをはじめ、AIでいろいろなことができるという評価がある反面、誤用されると危ないという、双方のリスクが見えてきています。難しいのは、AIを規制しても、逆に規制しなくても、それぞれリスクがあるということです。「規制しないリスク」の例としては、AIを使って偽情報が氾濫する可能性が出てくる。実際に「フェイクニュース」や、「ディープフェイク」と呼ばれていますが、有名な政治家が言ってもいないことを、あたかも言ったようにつくられた動画が流れてしまう。そのため、「偽情報は危ないので規制する必要がある」という側面があります。
リスクのバランスのとり方が難しい
井形)ただ、規制によってイノベーション力が削がれてしまうところもあります。わかりやすいのが医療の現場です。患者のデータを匿名化した上でAIを使って分析し、「このような特徴がある人にはこの薬が効く」あるいは「効かない」という情報が得られると、いままで治療法がなかったような病気に関しても、AIを使うことで治療法が見えてくるかも知れない。それを規制してしまうと、本来であればイノベーションによって救えた命が救えなくなる可能性もあります。ただ、規制もなくすべてオープンにしてしまい、データの匿名化が何かしらの理由で上手くいかなかった場合、個人情報が漏洩してしまうリスクもあります。このリスクとのバランスが非常に難しいのです。
「どこまで規制するか」は各国によって温度差がある
新行)各国ではどんな議論があるのでしょうか?
井形)アメリカはかなり頑張っています。アメリカは官民で連携しながら、AI戦略・AI規制をどうするべきか、以前から議論を進めています。また、EUでも進んでいます。国によって「どこまで規制するのか」に関しては、若干の温度差があります。日本としては、先ほど言った2023年の自民党のホワイトペーパーを見ると、もちろん両方のリスクがあるのですが、「より促進する方向で進めていいのではないか」という方向性が提案されています。
偽情報への規制の難しさ
新行)災害が起きたとき、不安を煽るような偽情報がSNSなどであっという間に拡散されてしまうことがありますよね。
井形)ディスインフォメーション(偽情報)に関しては規制が必要だと思います。災害時も含めて、何かショッキングなことが起こると偽情報がまん延する傾向は、AI時代の前からありました。それがテクノロジーによって、さらに被害が拡大しやすくなっています。しかし、政府が強く「ディスインフォメーションを広げてはダメだ」というような政策をつくってしまうと、「では何をディスインフォメーションと判断するのか」という問題が出てくる。そうなると民間の言論弾圧、自由な言論を阻害してしまう可能性が出てきます。ただ、まったくやらないのも問題なわけです。ここでもバランスの話が出てきます。
プラットフォーマーである民間企業でも明らかな偽情報を拡散させないような規制が必要
井形)もう1つ考えられるのは、情報拡散の場を提供している民間企業です。X(旧ツイッター)やFacebook、LinkedIn、Instagramなどのプラットフォーマーである民間企業が、「明らかにおかしい」という情報を特定したら、「その情報を拡散させないようにする」というような規制が必要になると思います。
半導体・AI・サステナブル技術における競争領域、協調領域、協力領域
新行)井形さんは1月30日に「日韓経済安保シンポジウム:半導体・AI・サステナブル技術」というシンポジウムも開催されています。こちらではどんな議論があったのでしょうか?
井形)ソウル大学で経済安全保障を専門とする教授の方々に来ていただき、半導体・AI・サステナブル技術という3つの大きな技術を見たとき、競争領域、協調領域、協力領域が、それぞれどこに当たるのかを議論しました。簡単に言うとこの順番と同じで、半導体はもちろん協力・協調できるところもあるのですが、どうしても競争領域も出てきてしまう。AIに関しては、共同研究できるかも知れないけれど、重要なのは「どのような規制をつくっていくか」で協調することです。それに対し、サステナブル関連の技術は、日本と韓国でかなり相互補完性がある部分なので、「協力領域はサステナブル技術なのではないか」ということを議論させていただきました。
新行)サステナブル技術というと、つまり持続可能な技術ということでしょうか?
井形)どうすれば同じエネルギーでより多くのものを生み出せるか、より環境負荷が低い状態でものを生産できるか、というようなことです。特にバイオテクノロジー分野だと、これから出てくるような新しい技術で、いろいろと協力できるのではないかということを議論しました。
外部リンク
この記事に関連するニュース
-
ネット炎上レポート総集編 2024年の炎上トレンドと2025年の炎上予測
Digital PR Platform / 2024年11月26日 12時0分
-
「みんなが信じるウソ」が真実になる…「新聞離れ」「テレビ離れ」がもたらした"SNS選挙戦"の憂鬱
プレジデントオンライン / 2024年11月25日 8時15分
-
米商務省、国家安全保障におけるAIリスク検証のタスクフォース設置(米国)
ジェトロ・ビジネス短信 / 2024年11月22日 14時20分
-
米政府の対中「半導体・AI」投資規制が実施段階へ 軍事転用など国家安全保障上の脅威に備え
東洋経済オンライン / 2024年11月14日 17時0分
-
JIICA(国際協力機構)特別アドバイザー・三原朝彦 × JAPAN DX会長・鈴木壮治「民間がもっと外に出るという気概を持ち、政府も企業も力を発揮するときです」
財界オンライン / 2024年11月13日 11時30分
ランキング
-
1有名脱毛サロンが破産手続き 返金困難と告げられた会員女性「腹立たしい」 賃借料など膨らみ資金繰り悪化か
CBCテレビ / 2024年11月26日 18時40分
-
2石川県西方沖でM6.6の地震 最大震度5弱 津波被害の心配なし
ウェザーニュース / 2024年11月26日 22時47分
-
3【速報】共同通信の社長が外務省に謝罪 生稲晃子外務政務官の靖国参拝めぐる誤報問題で
TBS NEWS DIG Powered by JNN / 2024年11月26日 19時51分
-
4兵庫・加古川の小2女児刺殺、小4刺傷容疑の男を再逮捕へ…「好みの女の子を尾行し刺した」供述
読売新聞 / 2024年11月27日 0時0分
-
5八戸5歳女児死亡の初公判、検察側「母親らは一日一食しか与えず隠れて食べていた女児に暴行」
読売新聞 / 2024年11月26日 15時45分
記事ミッション中・・・
記事にリアクションする
記事ミッション中・・・
記事にリアクションする
エラーが発生しました
ページを再読み込みして
ください