近年、企業における生成AIの導入が加速しています。ガートナージャパンの調査 (注1) によると、2025年3月時点で日本企業の約63%が何らかの生成AIサービスを利用しています。市場全体も急速に拡大しており、すでに成果を上げている企業も徐々に増えてきました。
こうした導入の広がりを支えているのが、クラウドサービスやオープンソース技術の普及です。これにより、専門的な知識がなくても従業員が生成AIを扱いやすくなり、社内での活用が現実的なものとなりました。特に、インフラ構築や高度な開発スキルを必要とせず、スモールスタートが可能になった点が、多くの企業にとって導入の後押しとなっています。
生成AIの導入により成果を上げる企業が増えている一方、情報漏えいや不正利用のリスクも高まっています。特に、機密情報や個人情報を生成AIに入力した場合、それが外部に漏れる可能性があり、企業の信用や法的リスクにもつながりかねません。また、誤情報の生成や悪意ある利用のリスクもあります。
こうしたリスクを防ぐためには、企業として利用ポリシーやガイドラインを策定し、以下のような、AIに入力すべきでない情報を明確に定めておくことが求められます。
そして、このような情報に対する技術的な制限の一つとして、「Cisco Secure Access」の機能をご紹介します。
生成AIへの入出力に対する技術的な制限を実現する手段の一つとして、最新のSASE (Secure Access Service Edge) /SSE (Security Service Edge) 製品には、生成AIへの不適切な情報入出力を制限する機能が搭載されています。
代表的な製品である「Cisco Secure Access」(注2) のAI Security機能を例に、生成AI利用時に不適切な情報がブロックされる様子を確認してみましょう。今回は、以下のようなシナリオでデモを行います。
生成AIに入力した個人情報は学習データとして取り込まれます。保管されたデータが攻撃されて、情報が流出したり、誤ってほかのユーザーに情報が出力されたりする事例が増えています。そのため今回は、生成AIへ個人情報を入力するケースで検証を行います。
入力する事項:顧客のメールアドレス・クレジットカード番号
想定される動作:DLP (データ損失防止) 機能が作動し、送信が遮断される
「Cisco Secure Access」の管理コンソールにログインし、「Data Loss Prevention Policy」からポリシーを作成します。ブロックしたいカテゴリを選択、対象とする生成AIアプリケーション、およびユーザーを指定し、ActionをBlockとして設定します。
生成AIサービス (Chat GPT) にアクセスして、意図的に個人情報を含む内容を入力してみます。設定されたポリシーに基づき、該当リクエストはブロックされ、「Network connection lost. Attempting to reconnect… (ネットワーク接続が切断されました。再接続を試みています…)」と表示されます。
ログ上でも適用されたポリシーとブロック内容が表示されることが確認できました。
「Cisco Secure Access」では、URLフィルタリングだけでなく、コンテンツレベルでの精細な制御が可能です。今回のデモでは個人情報入力のブロックを例として取り上げましたが、ほかにもプロンプトインジェクション攻撃 (注3) からの保護や、不正確な情報および悪質に使用される可能性のある情報 (爆弾の作り方など) の出力を制限する機能もあります。
またシャドーAIの可視化やサプライチェーンリスクの検出も可能です。これらの機能は、生成AIを「安全に使う」環境を構築するのに非常に有効です。
生成AIの利便性を最大限に活かすには、セキュリティ対策の仕組みが不可欠です。「Cisco Secure Access」のようなソリューションを活用することで、より強力なAI活用基盤を構築できます。AIセキュリティの実装は各社力を入れており、新機能についても続編でご紹介していきます。
KDDIでは「Cisco Secure Access」をはじめとするSASE/SSE製品の一元的な導入・運用が可能です。生成AIを含むアプリケーションやネットワーク全体におけるセキュリティ対策でお悩みの方は、ぜひご相談ください。
執筆者プロフィール
KDDI 法人営業担当者が、導入へのご相談やお見積もりをいたします。
何かご不明な点があればお気軽にお問い合わせください。