※ 記事制作時の情報です。
ChatGPTを巡っては、過去に「入力の仕方」や「システム不具合」に起因する情報漏えい事例が報告されています。代表的な事例は以下の3つです。
関連サービス: AI
2023年3月、韓国の大手電子製品メーカーにおいて、社内の機密情報が外部に流出する事案が報告されました。この事例では、開発担当者が業務効率化を目的に、半導体関連のソースコードをChatGPTへ入力したことが原因で、機密情報が意図せず外部サービス上で処理された点が問題となりました。
企業側は、ChatGPTに入力されたデータが外部サービス上で処理・保持される仕組みを十分に把握しておらず、管理体制が問われる結果となりました。この事案を受け、当該企業では社内での生成AI利用を一時的に制限し、利用ルールの見直しや再発防止策の検討が進められました。
2023年3月、ChatGPTにおいて、ほかユーザーのチャット履歴タイトルが表示される不具合が発生しました。本来は自分の履歴のみが表示される仕様でしたが、システム上のバグにより、第三者が作成した会話タイトルが一覧に現れる状態となりました。
OpenAIはこの問題を確認後、ChatGPTの提供を約9時間停止し、原因調査と修正対応を実施しました。履歴の本文までは表示されなかったものの、タイトルから検討中のテーマや取引内容、関心分野などが推測されるおそれがあり、業務利用における情報管理上のリスクが生じたと考えられます。
2023年3月、ChatGPTの有料版であるChatGPT Plusの利用者において、ほかユーザーの個人情報が表示されるトラブルが発生しました。支払処理に関連するシステムの不具合により、別の利用者の氏名やメールアドレス、支払いに関する情報の一部が誤って表示されたと報告されています。
OpenAIの発表によると、影響を受けたのは有料版ChatGPT Plusの会員の約1.2%です。当時の利用者規模から推測すると、最大で数万人規模のユーザーが影響を受けた可能性があります。問題確認後、該当機能は速やかに停止され、原因の特定と修正が行われました。この事例は、有料サービスであっても、システムの不具合によって情報が露出するリスクが存在することを示しています。
ChatGPTを業務で利用する際、入力内容には注意が必要です。ここでは「漏えい時の影響範囲」「法的・契約上の影響」「情報の回収・削除の難易度」を基準に、業務上のリスクが高いものから整理しました。
次の情報は、入力を避けるべき代表例です。
ChatGPTで情報漏えいが発生した場合、影響は一時的な対応にとどまらず、時間の経過とともに業務や経営へ段階的に広がります。発生直後の混乱から、フェーズに応じて異なるリスクが表面化するのが特徴です。
以下では、これらのリスクを具体的に整理します。
ChatGPTでは、利用設定によっては入力内容がサービス改善のための学習データとして扱われる場合があります。一度学習に取り込まれると、特定の情報だけを後から完全に取り除くことは難しくなります。チャット履歴を削除しても、一定期間はシステム上に保持される点にも注意が必要です。
例えば、顧客名や契約内容を含む文章を入力した場合、意図せずAIの将来の挙動に影響を与えるおそれがあります。入力時点では問題が表面化しなくても、後の監査で情報管理の不備として指摘される可能性があり、削除の難しさがリスクを長期化させます。
ChatGPTは、特定のユーザーが入力した内容がそのままほかのユーザーへ回答として表示される仕組みではありません。しかし、入力内容が具体的である場合、別のユーザーが似たテーマで質問した際に、回答の表現や文脈に影響が残る可能性があります。
例えば、実在の部署名や業務内容、具体的な数値を交えて社内業務を詳しく入力した際、本来は一般化されるべき回答が、特定の業務実態を想起させる表現で生成されるケースが考えられます。その結果、第三者が内容を見て「特定の企業や業務」を連想できてしまうかもしれません。
こうした情報の混入は、文脈をもとに文章を生成する過程で発生します。発生頻度は高くありませんが、入力内容が具体的であるほどリスクは高まります。匿名化や抽象化を行わずに利用することが、意図しない情報開示につながるのです。
情報漏えいが確認された場合、個人情報保護法に基づく対応が求められます。状況によっては、行政からの指導や命令を受ける可能性があり、是正対応や再発防止策の実施が必要です。また、本人や取引先から損害賠償を請求されるケースも想定されます。
問題が公になることで企業の社会的信用が低下すれば、取引関係の解消や採用難を招きかねません。対応には時間とコストがかかるため、長期的な経営リスクとして残る点が大きな課題です。
個人情報を誤って入力した場合は、影響を最小限に抑えるため、以下の順序で対応します。
Step1:チャット履歴を即座に削除する
該当するチャット内容を速やかに確認し、履歴を削除します。
Step2:OpenAIに情報削除を依頼する
OpenAIへの報告や、社内管理部門への共有を行います。
Step3:関係者への報告と対策検討を行う
利用ルールや教育内容を見直し、同様の入力を防ぎます。
個人情報を入力してしまった場合は、まずChatGPTの画面左側に表示されるチャット一覧から該当の会話を選択し、メニューから削除を実行します。あわせて、設定画面で「チャット履歴と学習」の項目を確認し、学習利用をオフにしておくと安心です。
なお、履歴を削除しても、OpenAIのサーバー内には最大30日間データが保持される仕組みになっています。削除操作のみで完全に消えるわけではないことを理解したうえで、次のステップへ進むことが重要です。
チャット履歴の削除後、入力内容の扱いに不安が残る場合は、OpenAIへ情報削除を依頼します。help.openai.comに表示される右下のチャットアイコンから問い合わせが可能です。報告時には、使用したアカウント、入力日時、問題となった内容の概要などを整理して伝えると、確認がスムーズに進みます。
対応完了までには一定の時間を要する場合があるため、社内でも状況を共有し、並行して次の対応を検討しておくことが重要です。
個人情報の誤入力が判明した場合は、速やかに上長や管理部門へ報告し、事実関係と影響範囲を整理します。必要に応じて法務部門とも連携し、法令対応や対外説明の要否を確認してください。
情報システム部門とは、利用設定やアクセス管理の見直し、再発防止策の検討を進めます。対応内容を記録し、社内ルールや従業員教育に反映させることが重要です。
ChatGPTを業務で利用する場合は、入力内容や利用方法を事前に整理しておきましょう。個人情報や業務情報をそのまま入力すると、意図しない情報露出や運用上の問題が発生するおそれがあります。
ここでは、ChatGPTを安全に利用するために、実務で押さえておきたいポイントを以下の5つの観点から整理します。
ChatGPTを使う際は、実名や具体的な属性を仮名や一般表現に置き換えることで、個人情報の露出を抑えられます。ポイントは「意味は保ち、特定要素だけをはずす」ことです。
例1:人物情報
例2:顧客対応
このように、氏名・部署名・企業名を役割や一般名詞に置き換えることで、質問の意図を保ったまま安全に活用できます。
企業名や具体的な数値を含む質問は情報の特定につながりやすいため、必要な範囲まで抽象化してから入力します。コツは「固有名詞を役割に置き換える」「数値は幅や比率にする」「背景は一般化する」の3点です。
抽象化の例 (企業名・数値)
抽象化レベルは、目的に応じて調整してください。文章表現の改善が目的なら大きく抽象化し、業務手順の整理が目的なら「業界」や「規模感」程度まで情報を残すと、回答の精度を維持しやすくなります。質問文は、条件を盛り込みすぎず「目的・前提・出力形式」を短く示すと整理しやすくなります。
業務利用においては、個人向けプランではなく企業向けプランの導入を検討しましょう。ChatGPT Businessプランは、1ユーザー当たり月額30ドル (2026年1月現在) です。入力データをAIの学習に利用しない設計で、管理者によるユーザー管理、権限設定、監査ログ、データ暗号化など、組織利用を想定したセキュリティ機能が含まれます。
Enterpriseプランは価格非公開の個別見積ですが、SCIM連携やロールベースのアクセス制御、データ保持ポリシーのカスタマイズ、SLA付きサポートなど、より厳格な統制と大規模運用を前提とした高度な機能を利用できます。
ChatGPT APIでは、Web版とは異なり、入力データが原則としてAIの学習に使用されないオプトイン形式が採用されています。企業側が明示的に許可しない限り、送信したデータは学習用途に回らないため、個人情報や業務データを扱う際に管理しやすい点が特徴です。
また、API連携では自社システム側で入力項目や送信内容を制御できます。アクセス制限やログ管理を組み合わせることで、誰が・いつ・どの情報を扱ったかを把握しやすくなります。
ChatGPTの導入後も、利用状況を定期的に点検する体制づくりが欠かせません。具体的には、APIや管理機能で取得できるログをもとに、利用者、利用目的、入力内容の傾向に問題がないかを確認します。
あわせて、想定外の情報入力や不審な利用が確認された場合に備え、インシデント発生時の報告ルートや対応手順を事前に整理しておくことが重要です。監査と対応フローをセットで運用することで、継続的な安全性を維持できます。
ChatGPTを業務で利用する際は、利用規約の内容を事前に確認することが重要です。特に以下の3点は、法的リスクを回避するために必ず押さえておきましょう。
入力内容によっては第三者の権利侵害や法令違反となる可能性があり、責任は利用者側にあります。規約は見落とされがちですが、業務利用では法的責任に直結するため注意が必要です。
ChatGPTは業務効率化に役立つ生成AIツールですが、個人情報を入力すると情報漏えいや法的リスクを招く危険性があります。実際に、入力内容やシステム不具合を起因とした事例も発生しています。
業務でChatGPTを利用する場合は、入力してはいけない情報を把握し、匿名化や質問内容の抽象化を徹底することが重要です。あわせて、企業向けプランやAPI利用、定期的なセキュリティ監査を組み合わせることで、個人情報を守りながら安全な活用につなげられます。
自社での判断が難しい場面では、専門的な知見を活かしたサービスを活用してみるのも一つの方法です。こうしたポイントを踏まえ、安全に生成AIを活用するための選択肢を検討してみるとよいでしょう。
生成AIを業務で活用する際は、利便性だけでなく、個人情報やセキュリティへの配慮が欠かせません。KDDIでは、企業利用を前提としたセキュアな環境の構築から、生成AIの導入支援や活用方法までをご支援します。
生成AIの安全な導入や活用をご検討の方は、以下のページをご確認ください。