1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

Microsoftが生成AI悪用を可能にするAIジェイルブレイクを指摘、回避策も提示

マイナビニュース / 2024年6月5日 19時2分

画像提供:マイナビニュース

Microsoftは6月4日(米国時間)、「AI jailbreaks: What they are and how they can be mitigated|Microsoft Security Blog」において、生成AIの悪用を可能にするAIジェイルブレイクについて解説した。

○「AIジェイルブレイク」とは

2022年にOpenAIがChatGPTを公開してから、生成AIは急激な発展と普及を続けている。現在ではテキスト生成以外にも音声、画像、動画などを簡単に生成できるようになり、広告やコンテンツ制作などにも活用されている。生成AIは無の状態から情報を生み出しているわけではなく、膨大な学習データとディープラーニング(深層学習)によりさまざまな形の機械学習モデル(AIモデル)を作成し、その能力の範囲内で出力を得る。

この膨大な学習データには悪用可能な情報が含まれており、多くの大規模言語モデル(LLM: Large Language Model)の学習データにも含まれている。ChatGPTやGeminiのような有名な生成AIも悪用可能な回答を生成する能力があり、積極的に悪用しようとするユーザーが存在する。

多くのAI(Artificial Intelligence)開発企業は悪用を防ぐためにさまざまな防衛策を講じており、近年は悪用可能な情報を簡単に出力できないようになっている。しかしながら、この防衛策を突破するプロンプトインジェクションなどの試みがあり、この防衛策を突破する行為がAIジェイルブレイクと呼ばれている。

○生成AIを攻撃可能な理由

Microsoftは生成AIの機械学習モデルを次のように例えている。

本質的に、機械学習モデルは熱心で知識豊富だが、ビジネス環境における経験と成熟に伴う判断力、状況理解、境界線の遵守が欠けた従業員に例えることができる。

つまり、人間のような出力は可能だが、人格者のような行動ができるわけではなく、適切な保護が施されていない場合は有害なコンテンツを生成し、場合によっては問題のある行動を実行して機密情報を漏洩する可能性がある。

そこでMicrosoftはこのような問題を軽減するために、AIの実装に対してゼロトラストアプローチの採用を推奨している。すべての機械学習モデルはAIジェイルブレイクの影響を受けると想定し、攻撃を受けた場合の潜在的な損害を抑制できるように実装する。
○保護のガイダンス

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください