1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

ChatGPTに重要な情報を送っても安全か? 自治体のネットワーク分離モデルから考える

ITmedia ビジネスオンライン / 2024年9月9日 6時55分

ChatGPTに重要な情報を送っても安全か? 自治体のネットワーク分離モデルから考える

Internet Archivesに残っている kawaguchi.com の当時のページ

 こんにちは。川口弘行です。私が自治体のデジタル化に関わる際には、個人としての川口弘行だけでなく、川口弘行合同会社という法人の立場も持っています。自分のフルネームを会社名にするというのは、他の人には理解されにくいようで、「え? これは個人事業ですか?」と尋ねられることもあります。

 この会社名にした理由のひとつが、kawaguchi.com というドメイン名です。今から30年ほど前にこのドメインを取得して以来、ずっと使い続けています。取得した当時の日本は、電話回線のダイヤルアップでインターネットに接続していました。国内の個人向けプロバイダーは数えるほどしかなく、このドメイン取得は米国のエージェントを通じて行いました。

 インターネットが社会の基盤になるとは、想像もしていなかった時代の話です。

 さて、昔話はこの辺にして「自治体における生成AIの利活用」について考えてみましょう。前回の記事「プロンプトの悩み不要 自治体で使うべき『ChatGPT Plus』の機能とは?」では「生成AIが出力した回答の妥当性」について議論しました。

 AIの回答は単なる「意見」に過ぎず、それらの意見を慎重に検討し、最終的な判断を下すのは人間の重要な役割であるという点を強調しました。

 今回は「送信された情報の管理の問題」、つまり「ChatGPTに重要な情報を送信しても安全なのか?」という点について考察してみたいと思います。

 いくつかの自治体から、過去にこんな質問を受けたことがあります。

 「ChatGPTに重要な情報を送信しても安全なのか? 職員が誤って個人情報を送信してしまったら、どうするのか?」

 自治体は住民の方から個人情報を預かり、行政サービスを提供しているため、情報セキュリティ対策には非常に敏感です。また、ChatGPTのような「未知なるサービス」に対する漠然とした不安もあります。

 でも、よく考えてみれば奇妙な話です。送信してしまった個人情報というのは、どこからやってきた情報なのでしょうか? また、個人情報だけが重要な情報なのでしょうか? 多くの自治体はここで思考停止しているのかもしれません。これは生成AIの話題というよりも、むしろ自治体の情報セキュリティ対策に関する話題です。さっそく、詳しく見ていきましょう。

●自治体のネットワーク分離モデルから考える

 この問題は最終的に自治体の情報セキュリティポリシーの議論に行き着きます。全ての自治体は、自らの組織の情報セキュリティに関する振る舞いや取り扱いを情報セキュリティポリシーとして文書化し、これを順守することになっています。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください