



フリー素材感覚での利用による「情報漏洩」と「権利侵害」のリスクを回避するため、情シス主導による明確な利用基準の策定が必要です。
ChatGPTは極めて有用ですが、情シスの管理下にないアカウントで業務利用される「シャドーIT」のリスクが高まっています。特に以下の2点において、従来のITツールとは異なるリスク管理が求められます。
学習データへの流用: 無料版やデフォルト設定では、入力データがAIの学習に使われ、他社への回答として流出する恐れがある。
ハルシネーション(嘘)の責任: AIが生成した誤情報を元に業務を行い、損害が出た場合の責任の所在が曖昧になりやすい。
精神論(気をつける)ではなく、「入力禁止情報の定義」と「オプトアウト設定」を物理的な手順としてルール化することが重要です。
具体的なアクションとして以下の4つをルール化し、就業規則やセキュリティガイドラインに追加することを推奨します。
以下の項目をベースに、自社のセキュリティポリシーに合わせて調整してください。
A1. 原則として推奨しません。
無料版は入力データが学習に利用されるリスクが高いためです。業務利用する場合は、学習機能をOFFにする設定を個人任せにせず徹底させるか、入力データが学習されない「API利用」または「ChatGPT Enterprise / Teamプラン」の導入を検討してください。
A2. 現時点では法的にグレーゾーンですが、利用者の責任となります。
一般的には指示を出したユーザー(企業)に帰属すると考えられますが、既存の著作物と酷似していた場合は著作権侵害となるリスクがあります。社内ルールでは「生成物の利用責任は使用者にある」と明記すべきです。
A3. 専用のAIチャットボット導入が有効です。
ChatGPTのAPIを活用し、入力データを学習させないセキュアな環境を構築した「法人向けAIチャットボットサービス」を利用することで、ログ管理や禁止ワード設定(PIIフィルタリング)をシステム側で強制することが可能です。
ChatGPTの社内ルール策定は、リスクを回避しつつ生産性を最大化するための「交通整理」です。情シス部門は、以下のステップで環境整備を進めてください。
入力禁止情報の定義(個人情報・機密情報の具体例提示)
オプトアウト設定のマニュアル化(スクリーンショット付き手順書の配布)
セキュアな代替環境の検討(API連携ツールの導入)
【情シス担当者様へ】
「ルールを作っても徹底できるか不安」「設定漏れによる事故が怖い」という場合は、社内ルールとセキュリティ機能をパッケージ化した「法人向けAIチャットボット」の導入をご検討ください。導入と同時に運用ルールをシステム化し、情シスの管理工数を大幅に削減します。
チャットボット運用に一切手間をかけず成果を出したい企業専用
AIさくらさん(澁谷さくら)
ChatGPTや生成AIなど最新AI技術で、DX推進チームを柔軟にサポート。5分野のAI関連特許、品質保証・クラウドセキュリティISOなどで高品質を約束します。御社の業務内容に合わせて短期間で独自カスタマイズ・個別チューニングしたサービスを納品。登録・チューニングは完全自動対応で、運用時のメンテナンスにも手間が一切かかりません。