1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

生成AIの開発・利用リスクにどう立ち向かうのか? - SB intuitionsの挑戦

マイナビニュース / 2024年8月19日 15時0分

こうしたリスクに対し、米国では2023年10月にホワイトハウス大統領令「Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence」が出された。また、米OpenAIはレッドチームを立ち上げ、LLMの意図しない出力を防ぐために敵対的なプロンプトにより安全性を担保しているという。

ちなみに、OWASP(Open Worldwide Application Security Project)が代表的なLLMのリスクについて、「OWASP Top 10 for Large Language Model Applications」の中で公表している。

Responsible AIの実現に向けた挑戦

ここまで紹介したリスクや課題に対し、高橋氏らSB intuitionsでは「生成AIの車検」「秘匿推論環境」「悪性データの無害化」の3つのテーマで研究開発を進めている。
生成AIの"車検"

以前も同社の取り組みとして紹介したように、SB intuitionsでは生成AIの「車検」にたとえた対策について研究している。(LLMや生成AIに潜むリスクにどう対抗すべきか、ヒントは自動車産業に?)

例えば、テストと対策の徹底だ。脆弱性や倫理的な問題に対し敵対的にさまざまな観点から攻撃することで、攻撃に悪用される懸念の軽減を図る。また、ガードレールを築くように、国内外のステークホルダーや有識者と連携しながら、生成AIの安全な利用が可能な標準の構築についても進めている。

秘匿推論環境

生成AIの活用が進まない背景には、生成AIに対し業務データを入力する際のセキュリティ上の不安や懸念がある。これに対して同社では、幅広い産業でのデータ活用を促すために、同社は秘匿推論環境の構築を進めている。

現在は、入出力や推論の過程をのぞき見ることができない「セキュアな推論環境」の実現について探索している段階とのことだ。

悪性データの無害化

著作権の侵害やバイアスを誘因するデータでLLMが学習してしまうと、意図しない有害な出力につながる可能性がある。そのため、そもそも学習するデータを無害化したり、意図しない挙動を抑制したりする工夫が必要だ。

また同時に、著作権侵害やバイアス、バックドアなどを誘因するような悪質なデータの発見や悪影響の抑制、学習済みのモデルから忘却するような技術についても開発が進められている。

「AIが学習したデータはパラメータに焼き付いてしまうので、現在の技術水準では、悪性データを忘れる方法は基本的には1から学習し直すほかに手段がない。特定のデータのみを忘れる技術は開発が難しいと思うが、今の時代には必要と考えチャレンジしている」(高橋氏)
(熊谷知泰)



この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください