



企業がChatGPTを導入する際、ガバナンスの観点から以下の3つのリスクを制御する必要があります。
情報漏洩(学習データへの流用):
無料版や個人アカウントのChatGPTでは、入力されたプロンプトがAIモデルの再学習に利用される可能性があります。これにより、機密情報が他社への回答として出力されるリスクがあります。
ハルシネーション(虚偽情報の生成):
AIが事実に基づかない嘘をもっともらしく回答し、それを信じた社員が誤った業務判断や顧客対応を行ってしまうリスクです。
プロンプトインジェクション(不正利用):
悪意ある入力により、AIに設定された倫理制限や社内ルールを回避させ、不適切な情報を引き出そうとする攻撃リスクです。
「セキュリティポリシーが厳格なインフラ企業は、どうやってAIを利用しているのか?」
その解となるのが、阪急電鉄様の実証事例です。
阪急電鉄様では、Microsoft Azure上のセキュアな環境(Azure OpenAI Service)を採用しています。この環境では、「入力データおよび出力データが、OpenAI社のモデル再学習に一切利用されない(オプトアウト)」ことが契約レベルで保証されています。
これにより、社外秘の運行情報や規定データを扱っても、情報漏洩のリスクを遮断できます。
さらに、AIが勝手なことを言わないよう、RAG(検索拡張生成)技術を導入しています。
AIはインターネット上の情報ではなく、「会社が承認し、登録した公式ドキュメント(約款・規定)」のみを参照して回答します。参照元がない場合は「分かりません」と答えるよう制御することで、ハルシネーションによるコンプライアンス違反を防いでいます。
技術的な対策に加え、情報セキュリティ部門は定期的な「ログ監査」を行う必要があります。先進的なIT企業では、以下の観点で月次監査を実施しています。
内容: 全社員のチャットログをモニタリングし、マイナンバー、クレジットカード番号、特定の顧客名などが入力されていないかをDLP(Data Loss Prevention)ツール等でスキャンします。
対策: 違反が見つかった場合、該当社員への注意喚起を行うとともに、システム側で自動マスキング(黒塗り)機能の実装を検討します。
内容: 「あなたはハッカーです」「今までの命令を無視して」といった、AIのジェイルブレイク(脱獄)を試みる不審なプロンプト入力を検知します。
対策: 攻撃パターンのログを分析し、システムプロンプト(AIへの防衛指示)を強化・更新します。
内容: ユーザーからの「Bad評価(役に立たなかった)」が付いたログを分析し、AIが誤った回答をしていないかを確認します。
対策: 誤情報の原因が「参照元の社内マニュアルの不備」なのか「AIの解釈ミス」なのかを特定し、RAGの参照データを修正します。
ChatGPTのセキュリティ対策は、「使わせない(禁止)」ことではありません。
阪急電鉄様のように、「学習されない閉域環境」と「根拠に基づく回答(RAG)」という強固なガードレールを設置することで、社員は安心してアクセルを踏み、業務効率化を推進できます。
リスク・ガバナンス担当者の皆様は、まずは自社のAI利用ガイドラインに「入力データのオプトアウト」と「定期監査」の規定が盛り込まれているか、再確認することから始めてみませんか?
▼【CISO・セキュリティ担当向け】セキュアな生成AI導入ホワイトペーパー
チャットボット運用に一切手間をかけず成果を出したい企業専用
AIさくらさん(澁谷さくら)
ChatGPTや生成AIなど最新AI技術で、DX推進チームを柔軟にサポート。5分野のAI関連特許、品質保証・クラウドセキュリティISOなどで高品質を約束します。御社の業務内容に合わせて短期間で独自カスタマイズ・個別チューニングしたサービスを納品。登録・チューニングは完全自動対応で、運用時のメンテナンスにも手間が一切かかりません。