2,000万件。 これは2025年2月にダークウェブで確認されたChatGPTアカウントの流出認証情報の数だ(ESET調査)。社員が業務で入力した議事録、顧客リスト、未公開の経営数値――それらすべてが、漏洩したアカウント経由で第三者に閲覧される可能性がある。
にもかかわらず、生成AIの利用に明確なポリシーを導入している企業は世界でも22%、日本ではわずか19%にとどまる(総務省「令和6年版 情報通信白書」2024年7月)。
生成AI情報漏洩の現状データ
ポリシー不在のリスクは、もはや「起こるかもしれない」ではなく「すでに起きている」段階にある。
| 指標 | 数値 | 出典 |
|---|---|---|
| 生成AI利用ポリシー導入率(世界) | 22% | 総務省 令和6年版情報通信白書 |
| 生成AI利用ポリシー導入率(日本) | 19% | 総務省 令和6年版情報通信白書 |
| ダークウェブに出品されたChatGPT認証情報 | 2,000万件(2025年2月) | ESET |
| 無償版ChatGPTでの学習利用 | デフォルトで有効 | OpenAI利用規約 |
| RAG(社内文書参照AI)のインジェクション脆弱性報告 | 高リスク | GMOセキュリティ24 |
1. 無償版AIの対話内容はモデル学習に利用される ChatGPTの無償版およびPlusプランでは、ユーザーの入力データがデフォルトでモデルの学習に使用される設定になっている(OpenAI利用規約)。社員が個人アカウントで顧客情報を入力すれば、そのデータは学習データとしてOpenAI側に取り込まれるリスクがある。
2. アカウント認証情報の大量流出 ESETの調査によると、2025年2月時点でChatGPTアカウントの認証情報2,000万件がダークウェブ上で売買されていることが確認された。流出したアカウントに残る対話履歴から、業務上の機密情報が第三者に閲覧される二次被害が懸念される。
3. RAGはプロンプトインジェクションの高リスク領域 社内文書をAIに参照させるRAG(Retrieval-Augmented Generation)は、業務効率化の切り札として注目されている。しかし、GMOセキュリティ24の報告では、RAGシステムはプロンプトインジェクション攻撃に対して構造的に脆弱であることが指摘されている。攻撃者が社内文書に悪意ある指示を埋め込むことで、AIが本来アクセスすべきでない情報を出力してしまうリスクがある。
情報漏洩を防ぐ社内ルール5つの必須項目
ポリシー策定にあたり、最低限盛り込むべき5項目を整理した。稟議書に添付できるよう、各項目の目的・リスク・対策を明確にしている。
項目1:AIサービスのホワイトリスト制
目的: シャドーAI(IT部門が把握していないAIサービスの業務利用)を防止する。
| 区分 | 内容 | 例 |
|---|---|---|
| 利用許可 | 法人契約済みのAIサービス | ChatGPT Enterprise、Claude Team、Microsoft Copilot(法人版) |
| 条件付き許可 | 検証済みかつ管理者承認済み | 部門限定のPoC利用 |
| 利用禁止 | 未検証・個人契約のAIサービス | 個人アカウントのChatGPT無償版、未審査のAIアプリ |
項目2:入力データの分類基準と禁止事項
目的: AIに入力してよいデータと入力禁止のデータを明確に区分する。
| データ分類 | AI入力可否 | 具体例 |
|---|---|---|
| 公開情報 | 可 | 自社サイト掲載済みの情報、プレスリリース |
| 社内限定 | 条件付き可(法人契約AIのみ) | 社内マニュアル、業務手順書 |
| 社外秘 | 原則禁止 | 未公開の経営計画、人事情報、取引先情報 |
| 機密 | 禁止 | 顧客の個人情報、財務データ、契約書、ソースコード |
項目3:出力の検証・承認フロー
目的: AIのハルシネーション(虚偽出力)による誤情報の社外発信を防止する。
- 外部公開コンテンツ(Webサイト、プレスリリース、提案書)はAI生成後に人間が一次情報で事実確認してから公開する
- 法務・財務・契約に関する出力は、担当部門の承認を必須とする
- AI出力をそのまま意思決定に使用することを禁止し、「参考情報」として位置づける
項目4:ログ管理とインシデント対応手順
目的: 問題発生時に原因を特定し、被害を最小化する。
| 項目 | 基準 |
|---|---|
| 利用ログの保存期間 | 最低1年 |
| 監査頻度 | 四半期に1回 |
| インシデント報告先 | 情報システム部門(発見から24時間以内) |
| 対応フロー | 検知→報告→影響範囲特定→封じ込め→原因分析→再発防止 |
項目5:定期教育と半年ごとのルール改定
目的: AI技術の進化に対応し、ポリシーの実効性を維持する。
- 全社員向けセキュリティ研修を四半期に1回実施
- ポリシーの見直しは半年に1回、AI技術の進化と新たな脅威情報を踏まえて改定
- 新入社員・中途入社者のオンボーディングにAI利用ルールの説明を組み込む
- IPA(独立行政法人 情報処理推進機構)の「AIセキュリティ短信」など公的機関の最新情報をキャッチアップする体制を整備する
生成AIの社内ルール、まだ整備できていませんか?
GXOのAIセキュリティ診断で、リスクと対策の優先順位を可視化します。
※ 営業電話はしません | オンライン対応可 | 相談だけでもOK
ポリシー導入3ステップ
ステップ1:現状把握(1〜2週間)
まず、自社の生成AI利用状況を可視化する。
- 社内アンケートで利用しているAIサービスと用途を調査
- IT部門でネットワークログから主要AIサービスへのアクセス状況を確認
- 現時点でのインシデント(ヒヤリハット含む)を収集
成果物: AI利用実態レポート(利用サービス一覧、利用部門、入力データの種類)
ステップ2:ポリシー策定と経営承認(2〜4週間)
前述の5項目をベースに自社のポリシーを策定する。
- 情報システム部門がドラフトを作成
- 法務・総務・経営企画と連携してレビュー
- 経営層の承認を取得(稟議書に「ポリシー不在時のリスク金額」を明記すると通りやすい)
- 就業規則への紐づけも検討する(違反時の対応を明確にするため)
成果物: 生成AI利用ポリシー(A4で3〜5ページ程度)
ステップ3:展開と定着化(継続)
策定したポリシーを全社に浸透させる。
- 全社説明会を開催し、ポリシーの目的と具体的なルールを周知
- 部門ごとに「AI利用のDo / Don't」を具体的な業務シーンに落とし込む
- 四半期ごとの研修で事例共有とルールの再確認を実施
- 半年ごとにポリシーを見直し、改定版を全社に展開
ROI試算: 情報漏洩インシデント1件あたりの平均被害額は約4億6,800万円(IBM「Cost of a Data Breach Report 2024」)。ポリシー策定コスト(社内工数40〜80時間+外部支援費用50〜100万円)と比較すれば、投資対効果は明白だ。
まとめ
生成AIポリシーの策定率は日本でわずか19%。しかし、ChatGPT認証情報2,000万件の流出が示すように、リスクは「起こるかもしれない」ではなく「すでに起きている」。本記事で示した5項目と3ステップで、今週から着手できる。
生成AIの社内ルール、まだ整備できていませんか?
GXOのAIセキュリティ診断で、リスクと対策の優先順位を可視化します。
※ 営業電話はしません | オンライン対応可 | 相談だけでもOK
よくある質問(FAQ)
Q1. 生成AI利用ポリシーの策定に、どのくらいの期間とコストがかかりますか?
社内リソースだけで策定する場合、ドラフト作成から経営承認まで2〜4週間が目安だ。情報システム部門の工数として40〜80時間程度を見込む。外部のセキュリティコンサルタントに支援を依頼する場合は50〜100万円が相場となる。ポリシーの「完璧さ」を追求して着手が遅れるよりも、本記事の5項目をベースに最低限のルールを策定し、半年ごとに改定していくアプローチを推奨する。
Q2. 法人契約のAIサービスであれば、情報漏洩リスクはないのですか?
法人契約(ChatGPT Enterprise、Claude Team等)では、入力データがモデルの学習に使用されない契約になっている。しかし、「法人契約=リスクゼロ」ではない。アカウント認証情報の漏洩、社員による意図しない機密情報の入力、RAGシステムへのプロンプトインジェクション攻撃など、法人契約でも残存するリスクは存在する。法人契約はリスク低減策の一つであり、ポリシー策定・社員教育と組み合わせて初めて実効性が生まれる。
Q3. RAG(社内文書参照AI)のセキュリティリスクにはどう対処すべきですか?
RAGはプロンプトインジェクション攻撃に対して構造的に脆弱なため、導入時には以下の3点を最低限実施する。(1)参照させる文書の範囲をアクセス権限に基づいて制御する、(2)AIの出力に対してフィルタリング(機密情報の検出・マスキング)を実装する、(3)定期的なペネトレーションテストでインジェクション耐性を検証する。自社だけでの対応が難しい場合は、セキュリティ専門企業の支援を検討すべきだ。
参考資料
- 総務省「令和6年版 情報通信白書」(2024年7月) https://www.soumu.go.jp/johotsusintokei/whitepaper/r06.html
- ESET「ChatGPT credentials on the dark web」(2025年2月) https://www.eset.com/
- GMOセキュリティ24「RAGにおけるプロンプトインジェクションリスク」 https://www.gmo.jp/security/
- OpenAI「Usage policies and Terms of use」 https://openai.com/policies
- IBM「Cost of a Data Breach Report 2024」 https://www.ibm.com/reports/data-breach
- IPA(独立行政法人 情報処理推進機構)「AI利用者のためのセキュリティ豆知識」「AIセキュリティ短信」(2026年4月) https://www.ipa.go.jp/