1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

生成AIのリスクに「生成AIで」どう対応する? NECの取り組みから探る

ITmedia エンタープライズ / 2024年9月24日 21時2分

生成AIのリスクに「生成AIで」どう対応する? NECの取り組みから探る

NEC セキュアシステムプラットフォーム研究所 所長の藤田範人氏

 生成AIがもたらすリスクに生成AIで対応する――。そんな技術の研究開発を進めているNECが、その取り組みについて2024年9月18日、研究開発拠点がある神奈川県川崎市中原区のNEC玉川事業場で記者説明会を開いた。今回はその内容を取り上げ、生成AIがもたらすリスクに生成AIでどこまで対応できるのかについて考察したい。

●生成AIがもたらす「新たなセキュリティリスク」

 「当社が価値創造を支える事業ブランドとして推進している『BluStellar』(ブルーステラ)では、生成AIとセキュリティをキーテクノロジーとして挙げ、両分野の研究開発に注力している。今回の説明会では、特にこの両分野を掛け合わせた『生成AI×セキュリティ』における研究開発の取り組みを紹介したい」

 NEC セキュアシステムプラットフォーム研究所 所長の藤田範人氏は、説明会でこう切り出した。

 藤田氏によると、同社のセキュリティ分野における研究開発は「Truly Trusted」というコーポレートメッセージのもと、「あらゆるシステムが安全に守られ、正常に動作し続けることに貢献する技術を創出する」ことをミッションとして、「システムセキュリティ」「データセキュリティ」「AIセキュリティ」の3つのテーマについて取り組んでいる(図1)。

 その上で、同氏は「従来のAIのリスクに加えて新たなセキュリティリスクが顕在化するようになってきた」と指摘し、2024年4月に政府が発表した「AI事業者ガイドライン」から生成AIで特に顕在化したリスクをピックアップしたものを表1に示した。

 表1の内容について藤田氏は、「悪用と偽・誤情報のリスクは、生成AIが持つ非常に高いコンテンツの生成品質に起因している。また、ハルシネーションや機密情報の流出は、生成AIの出力が必ずしも制御できるものではないといった特性に基づくリスクだ」との見方を示した上で、「当社はこれらのリスク評価と対策技術によって生成AIリスクを低減し、解消するというアプローチで対応している」と強調した。

 今回の記者説明会では、表1の赤枠で囲まれた3つのリスクについて、それぞれの対策技術が紹介された。サイバー攻撃への悪用には「LLM(大規模言語モデル)を用いたセキュリティリスク診断」、偽・誤情報には「偽・誤情報分析」、ハルシネーションには「ハルシネーション対策機能」だ。それぞれの要点は以下の通りだ。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください