このページはJavaScriptを使用しています。JavaScriptを有効にして、または対応ブラウザでご覧下さい。

閉じる
閉じる
ChatGPTに個人情報を入力するリスクとは?事例からセキュリティ対策を解説

ChatGPTに個人情報を入力するリスクとは?事例からセキュリティ対策を解説

2026 2/20
業務効率化のためにChatGPTを使い始めたものの「個人情報を入力しても大丈夫なのか」と不安を感じる方も多いのではないでしょうか。実際に、過去には個人情報や機密情報の取り扱いが問題となった事例も報告されています。
ChatGPTは便利なツールである一方、使い方を誤ると情報漏えいや法的リスクを招くおそれがあります。本記事では、実際の事例をもとにリスクを整理し、安全に利用するための対策や注意点を分かりやすく解説します。

※ 記事制作時の情報です。

1.ChatGPTによって個人情報が流出した事例

ChatGPTを巡っては、過去に「入力仕方」や「システム不具合」に起因する情報漏えい事例報告されています。代表的事例以下の3つです。

  • 韓国企業での機密情報漏えい事件
    業務上ソースコード内部資料入力した結果特定企業機密情報外部サービスに渡り、企業内部情報管理体制問題視されました。
  • チャット履歴表示バグ事件
    システム一時的不具合により、ほかユーザーチャット履歴タイトル第三者表示されました。
  • ChatGPT Plusユーザー情報流出事件
    有料プラン利用者一部において、氏名支払関連情報がほかユーザー表示される状態となり、限定的ながら個人ユーザー影響が及びました。

関連サービス: AI

1-1. 韓国企業での機密情報漏えい事件

2023年3月、韓国大手電子製品メーカーにおいて、社内機密情報外部流出する事案報告されました。この事例では、開発担当者業務効率化目的に、半導体関連ソースコードをChatGPTへ入力したことが原因で、機密情報意図せず外部サービス上で処理された点が問題となりました。

企業側は、ChatGPTに入力されたデータ外部サービス上で処理保持される仕組みを十分把握しておらず、管理体制が問われる結果となりました。この事案を受け、当該企業では社内での生成AI利用一時的制限し、利用ルール見直しや再発防止策検討が進められました。

1-2. チャット履歴の表示バグ事件

2023年3月、ChatGPTにおいて、ほかユーザーチャット履歴タイトル表示される不具合発生しました。本来自分履歴のみが表示される仕様でしたが、システム上のバグにより、第三者作成した会話タイトル一覧に現れる状態となりました。

OpenAIはこの問題確認後、ChatGPTの提供を約9時間停止し、原因調査修正対応実施しました。履歴本文までは表示されなかったものの、タイトルから検討中テーマ取引内容関心分野などが推測されるおそれがあり、業務利用における情報管理上リスクが生じたと考えられます。

1-3. ChatGPT Plusユーザー情報流出事件

2023年3月、ChatGPTの有料版であるChatGPT Plusの利用者において、ほかユーザー個人情報表示されるトラブル発生しました。支払処理関連するシステム不具合により、別の利用者氏名メールアドレス支払いに関する情報一部が誤って表示されたと報告されています。

OpenAIの発表によると、影響を受けたのは有料版ChatGPT Plusの会員の約1.2%です。当時利用者規模から推測すると、最大数万人規模ユーザー影響を受けた可能性があります。問題確認後該当機能は速やかに停止され、原因特定修正が行われました。この事例は、有料サービスであっても、システム不具合によって情報露出するリスク存在することを示しています。

2.ChatGPTに入力してはいけない情報

ChatGPTを業務利用する際、入力内容には注意必要です。ここでは「漏えい時の影響範囲」「法的契約上影響」「情報回収削除難易度」を基準に、業務上リスクが高いものから整理しました。

ChatGPTに入力してはいけない情報のイメージ画像

次の情報は、入力を避けるべき代表例です。

  • 個人特定できる情報 (高リスク)
    氏名住所電話番号などが含まれると、本人への被害苦情につながります。
  • 認証情報 (高リスク)
    IDやパスワードが漏れると、不正利用情報改ざんの原因となります。
  • 機密情報内部資料 (高リスク)
    契約内容未公開情報外部に渡り、第三者利用される危険性があります。
  • 顧客取引先データ (中〜高リスク)
    信頼関係悪化契約上問題発生するおそれがあります。
  • 法令規程に関わる情報 (中リスク)
    個人情報保護法違反など、法的責任を問われたり行政指導対象となったりする場合があります。

3.ChatGPTで情報漏えいしてしまった場合の問題点

ChatGPTで情報漏えいが発生した場合影響一時的対応にとどまらず、時間経過とともに業務経営段階的に広がります。発生直後混乱から、フェーズに応じて異なるリスク表面化するのが特徴です。

  • 短期的リスク
    社内外への説明対応原因調査に追われ、業務負荷増加します。
  • 中期的リスク
    顧客取引先からの信頼低下により、取引条件見直しを求められる場合があります。
  • 長期的リスク
    法的責任社会的評価への影響が残り、経営判断にも影響を及ぼす可能性があります。

以下では、これらのリスク具体的整理します。

3-1. AIの学習データとして永続保存される

ChatGPTでは、利用設定によっては入力内容サービス改善のための学習データとして扱われる場合があります。一度学習に取り込まれると、特定情報だけを後から完全に取り除くことは難しくなります。チャット履歴削除しても、一定期間システム上に保持される点にも注意必要です。

例えば、顧客名契約内容を含む文章入力した場合意図せずAIの将来挙動影響を与えるおそれがあります。入力時点では問題表面化しなくても、後の監査情報管理不備として指摘される可能性があり、削除の難しさがリスク長期化させます。

3-2. ほかのユーザーの回答に混入する可能性

ChatGPTは、特定ユーザー入力した内容がそのままほかのユーザー回答として表示される仕組みではありません。しかし、入力内容具体的である場合、別のユーザーが似たテーマ質問した際に、回答表現文脈影響が残る可能性があります。

例えば、実在部署名業務内容具体的数値を交えて社内業務を詳しく入力した際、本来一般化されるべき回答が、特定業務実態想起させる表現生成されるケースが考えられます。その結果第三者内容を見て「特定企業業務」を連想できてしまうかもしれません。

こうした情報混入は、文脈をもとに文章生成する過程発生します。発生頻度は高くありませんが、入力内容具体的であるほどリスクは高まります。匿名化抽象化を行わずに利用することが、意図しない情報開示につながるのです。

3-3. 法的責任と社会的信用の失墜

情報漏えいが確認された場合個人情報保護法に基づく対応が求められます。状況によっては、行政からの指導命令を受ける可能性があり、是正対応再発防止策実施必要です。また、本人取引先から損害賠償請求されるケース想定されます。

問題が公になることで企業社会的信用低下すれば、取引関係解消採用難を招きかねません。対応には時間コストがかかるため、長期的経営リスクとして残る点が大きな課題です。

4.ChatGPTに個人情報を入力してしまった場合の対処法

個人情報を誤って入力した場合は、影響最小限に抑えるため、以下順序対応します。

Step1:チャット履歴を即座に削除する
該当するチャット内容を速やかに確認し、履歴を削除します。

Step2:OpenAIに情報削除を依頼する
OpenAIへの報告や、社内管理部門への共有を行います。

Step3:関係者への報告と対策検討を行う
利用ルールや教育内容を見直し、同様の入力を防ぎます。

Step1:チャット履歴を即座に削除する

Step1:チャット履歴を即座に削除するのイメージ画像

個人情報入力してしまった場合は、まずChatGPTの画面左側表示されるチャット一覧から該当会話選択し、メニューから削除実行します。あわせて、設定画面で「チャット履歴学習」の項目確認し、学習利用オフにしておくと安心です。

なお、履歴削除しても、OpenAIのサーバー内には最大30日間データ保持される仕組みになっています。削除操作のみで完全に消えるわけではないことを理解したうえで、次のステップへ進むことが重要です。

Step2:OpenAIに情報削除を依頼する

チャット履歴削除後入力内容の扱いに不安が残る場合は、OpenAIへ情報削除依頼します。help.openai.comに表示される右下チャットアイコンから問い合わせが可能です。報告時には、使用したアカウント入力日時問題となった内容概要などを整理して伝えると、確認スムーズに進みます。

対応完了までには一定時間を要する場合があるため、社内でも状況共有し、並行して次の対応検討しておくことが重要です。

Step3:関係者への報告と対策検討を行う

個人情報誤入力判明した場合は、速やかに上長管理部門報告し、事実関係影響範囲整理します。必要に応じて法務部門とも連携し、法令対応対外説明要否確認してください。

情報システム部門とは、利用設定アクセス管理見直し、再発防止策検討を進めます。対応内容記録し、社内ルール従業員教育反映させることが重要です。

5.ChatGPTを安全に利用するには

ChatGPTを業務利用する場合は、入力内容利用方法事前整理しておきましょう。個人情報業務情報をそのまま入力すると、意図しない情報露出運用上問題発生するおそれがあります。

ここでは、ChatGPTを安全利用するために、実務で押さえておきたいポイント以下の5つの観点から整理します。

  • 個人情報匿名化仮名化テクニック
  • 質問内容抽象化による安全性向上
  • 企業向プラン活用
  • API利用による安全性確保
  • 定期的セキュリティ監査実施

5-1. 個人情報の匿名化・仮名化テクニック

ChatGPTを使う際は、実名具体的属性仮名一般表現に置き換えることで、個人情報露出を抑えられます。ポイントは「意味は保ち、特定要素だけをはずす」ことです。

個人情報の匿名化・仮名化テクニックのイメージ画像

例1:人物情報

  • 匿名化前
    田中太郎 (営業部) が取引先A社と結んだ契約内容要約してください」
  • 匿名化後
    営業担当者取引先企業と結んだ契約内容要約してください」

例2:顧客対応

  • 匿名化前
    山田花子さんからのクレーム対応文作成してください」
  • 匿名化後
    顧客からのクレームに対する回答文作成してください」

このように、氏名部署名企業名役割一般名詞に置き換えることで、質問意図を保ったまま安全活用できます。

5-2. 質問内容の抽象化による安全性向上

企業名具体的数値を含む質問情報特定につながりやすいため、必要範囲まで抽象化してから入力します。コツは「固有名詞役割に置き換える」「数値は幅や比率にする」「背景一般化する」の3点です。

抽象化の例 (企業名数値)

  • 抽象化前
    「A社向けに、月間12,500件の問い合わせを30%削減する提案書を作りたい」
  • 抽象化後
    特定業界取引先に向けて、問い合わせ件数を減らす提案書構成案を作りたい」

抽象化レベルは、目的に応じて調整してください。文章表現改善目的なら大きく抽象化し、業務手順整理目的なら「業界」や「規模感程度まで情報を残すと、回答精度維持しやすくなります。質問文は、条件を盛り込みすぎず「目的前提出力形式」を短く示すと整理しやすくなります。

5-3. 企業向けプランの活用

業務利用においては、個人向プランではなく企業向プラン導入検討しましょう。ChatGPT Businessプランは、1ユーザー当たり月額30ドル (2026年1月現在) です。入力データをAIの学習利用しない設計で、管理者によるユーザー管理権限設定監査ログデータ暗号化など、組織利用想定したセキュリティ機能が含まれます。

Enterpriseプラン価格非公開個別見積ですが、SCIM連携ロールベースアクセス制御データ保持ポリシーカスタマイズ、SLA付きサポートなど、より厳格統制大規模運用前提とした高度機能利用できます。

5-4. API利用による安全性確保

ChatGPT APIでは、Web版とは異なり、入力データ原則としてAIの学習使用されないオプトイン形式採用されています。企業側明示的許可しない限り、送信したデータ学習用途に回らないため、個人情報業務データを扱う際に管理しやすい点が特徴です。

また、API連携では自社システム側で入力項目送信内容制御できます。アクセス制限ログ管理を組み合わせることで、誰が・いつ・どの情報を扱ったかを把握しやすくなります。

5-5. 定期的なセキュリティ監査の実施

ChatGPTの導入後も、利用状況定期的点検する体制づくりが欠かせません。具体的には、APIや管理機能取得できるログをもとに、利用者利用目的入力内容傾向問題がないかを確認します。

あわせて、想定外情報入力不審利用確認された場合に備え、インシデント発生時報告ルート対応手順事前整理しておくことが重要です。監査対応フローセット運用することで、継続的安全性維持できます。

6. ChatGPTの利用規約で確認すべきポイント

ChatGPTを業務利用する際は、利用規約内容事前確認することが重要です。特に以下の3点は、法的リスク回避するために必ず押さえておきましょう。

  • 入力データ取扱
  • 利用者責任範囲
  • 免責事項

入力内容によっては第三者権利侵害法令違反となる可能性があり、責任利用者側にあります。規約見落とされがちですが、業務利用では法的責任直結するため注意必要です。

7. まとめ

ChatGPTは業務効率化役立生成AIツールですが、個人情報入力すると情報漏えいや法的リスクを招く危険性があります。実際に、入力内容システム不具合起因とした事例発生しています。

業務でChatGPTを利用する場合は、入力してはいけない情報把握し、匿名化質問内容抽象化徹底することが重要です。あわせて、企業向プランやAPI利用定期的セキュリティ監査を組み合わせることで、個人情報を守りながら安全活用につなげられます。

自社での判断が難しい場面では、専門的知見を活かしたサービス活用してみるのも一つの方法です。こうしたポイントを踏まえ、安全生成AIを活用するための選択肢検討してみるとよいでしょう。

安全な環境で生成AIを活用するなら、KDDIにご相談ください

生成AIを業務活用する際は、利便性だけでなく、個人情報セキュリティへの配慮が欠かせません。KDDIでは、企業利用前提としたセキュア環境構築から、生成AIの導入支援活用方法までをご支援します。

生成AIの安全導入活用をご検討の方は、以下ページをご確認ください。

関連記事


ピックアップ