




本記事では、実際に起きた身近なヒヤリハット事例と、AIから「正確で安全な回答」を引き出すための具体的なプロンプト(指示文)の対比表を大公開します。
「AIは怖いから使わない」という極端な判断は、企業の生産性を著しく低下させます。しかし、リテラシーがないまま使わせることはさらに危険です。ここで、ある中堅IT企業(従業員150名規模)で実際に起きたヒヤリハット事例を紹介します。
【事例:未発表の顧客情報が含まれた議事録の丸投げ】
入社2年目の営業担当者Aさんは、商談の録音データを文字起こしした長文テキストを、個人の無料版チャットGPTに貼り付け、「議事録として要約して」と指示しました。
要約自体は完璧でしたが、そのテキストの中には「クライアントの未発表の新製品名」と「役員の人事情報」が含まれていました。
後日、無料版の入力データは「AIの学習(モデル改善)に利用される規約」になっていることに気づいた上司が青ざめ、慌ててオプトアウト申請を行い、全社的な利用ルールの策定へと繋がりました。
悪意がなくても、「便利な要約ツール」として使っただけで重大なNDA(秘密保持契約)違反に繋がりかねないのが、生成AIの最も恐ろしい落とし穴です。
チャットGPTとのコミュニケーションにおいて、最も重要なのは「AIに自由な推測をさせないこと」です。
「優秀だが、知ったかぶりをする新入社員」に指示を出すつもりで、前提条件と制限をガチガチに固めるのが、安全なプロンプトの鉄則です。
以下に、現場でよくある「危険なNGプロンプト」と、それを改善した「安全なOKプロンプト」の対比表をまとめました。
❌ NGプロンプト vs ⭕ OKプロンプト 比較表
利用シーン ❌ 危険なNGプロンプト ⭕ 安全なOKプロンプト 改善のポイント
(嘘をつかれやすい) (事実のみを引き出す)
情報の抽出 「〇〇社の最新の事業 「以下のテキスト AI自身の知識
戦略について教えて。」 (※コピペしたプレス (不確実)に頼らせず、
リリース等)を基に、 参照元を「提供した
〇〇社の事業戦略を テキストのみ」に
箇条書きで抽出して 限定する。
ください。テキストに
ない情報は絶対に
書かないでください。」
法務・契約 「この契約書(※内容) 「あなたはプロの校正者 専門的な判断をAIに
で、自社が不利になる です。」以下の文章内で させず、「文字の
法的なリスクを教えて。」 『損害賠償』と『解除』 抽出・整理作業」
という単語が含まれる のみに役割を
条文をすべて抜き出して 限定する。
ください。※法的アド
バイスは不要です。
アイデア出し 「今度出す新商品の、 「ターゲットは30代女性、 「絶対に売れる」など
絶対に売れるキャッチ 商品は時短家電です。 の曖昧な指示を避け、
コピーを10個考えて。」 この条件で、行動経済学 思考のフレームワーク
の『プロスペクト理論』 (行動経済学など)を
の観点を取り入れた 指定し、あくまで
キャッチコピーの 「たたき台」と位置
『たたき台』を10案 づける。
出してください。」
【安全なコミュニケーションの3原則】
どれだけプロンプトを工夫しても、システム側の設定が「学習オン」になっていれば、入力した情報はAIの養分になってしまいます。
業務で利用する場合、以下のいずれかの対策が必須です。
この設定を行うだけで、入力データがAIの学習に使われるリスクを物理的に遮断できます。(※履歴も残らなくなる点には注意が必要です)。
チャットGPTは、使い方次第で「情報漏洩を引き起こす爆弾」にも、「残業をゼロにする最強のアシスタント」にもなります。
「機密情報は絶対に入力しない」「AIの回答は必ず人間がファクトチェックする」「参照元を限定したプロンプトを使う」。
このルールさえ守れば、過度に恐れる必要はありません。
【次のアクション】
この記事を読んだあなたは、今すぐご自身のチャットGPTの「Data controls」設定を確認してください。
そして、安全な利用環境が確認できたら、ぜひこの記事の「OKプロンプト」をコピーして、明日の業務から実践してみましょう!
Q1. 個人名が含まれる議事録を要約したい場合、どうすれば安全ですか?
A. 最も安全な方法は、チャットGPTに入力する前にテキストエディタの置換機能などを使い、顧客の社名や個人名を「A社」「B氏」といった仮名に置き換える(マスキングする)ことです。要約が完了した後、手動で元の名前に戻すことで、機密情報を一切AIに渡さずに要約作業を完了できます。
Q2. AIが書いた文章に著作権は発生しますか? そのままブログ等に使っても良いですか?
A. 現在の日本の法律の解釈では、原則として「AIが自律的に生成した文章」には著作権は発生しません。ただし、既存の他人の記事を読み込ませて「少しだけ書き換えて」と指示して生成した文章を公開した場合、元の記事の著作権侵害に問われるリスクがあります。AIの出力はあくまで「下書き」とし、最終的には自分の言葉で加筆修正することが重要です。
Q3. 企業として社員にChatGPTを使わせる場合、どのようなルールが必要ですか?
A. 最低限、「社外秘情報(顧客データ、未公開の業績、ソースコード等)の入力禁止」「AIの生成物をそのまま公式発表や商用利用しない(必ず人間がファクトチェックする)」「個人アカウントでの業務利用(シャドーIT)の禁止」を盛り込んだ「AI利用ガイドライン」の策定が必須です。できれば、学習されないセキュアな法人向け環境を一括導入することを推奨します。
チャットボット運用に一切手間をかけず成果を出したい企業専用
AIさくらさん(澁谷さくら)
ChatGPTや生成AIなど最新AI技術で、DX推進チームを柔軟にサポート。5分野のAI関連特許、品質保証・クラウドセキュリティISOなどで高品質を約束します。御社の業務内容に合わせて短期間で独自カスタマイズ・個別チューニングしたサービスを納品。登録・チューニングは完全自動対応で、運用時のメンテナンスにも手間が一切かかりません。