「つなぐチカラ」をよりシンカさせ、あらゆる社会課題に立ち向かう。
多数の次世代型低軌道衛星により高速・低遅延通信を提供します。
KDDIは『つなぐチカラ』でビジネス、ライフスタイル、社会をアップデートします。
場所にとらわれずつながるソリューションを、デバイスからセキュリティまで支援します。
KDDIは、グローバルビジネスの成長をお客さまと共に実現します。
CO2排出量の可視化から削減まで、一貫してカーボンニュートラル実現を支援します。
中小規模の事業者向けに特化したスマートフォンのご利用方法のご案内です。
中小規模事業者のやりたいことや変えたいことを、モバイルとクラウドの技術を用いてサポートします。
※ 記事制作時の情報です。
ハルシネーションによる代表的な失敗例としては、「社内会議資料にAIが出力した調査結果を引用したら存在しない統計データが入っていた」や「ChatGPTで調べた商品名を書類に記載したら、実在しないものだった」など、さまざまな事例があります。
このような失敗によって「生成AIを使い始めて、逆に確認作業で手間が増えてしまった」と嘆く担当者が多いことも事実です。生成AIの効果的な運用を実現するためにも、ハルシネーションの特徴を正確に理解しておきましょう。
そもそもハルシネーションとは、生成AIの仕様に組み込まれている癖のようなものです。もっともらしい嘘をつくため人間が見抜きにくく、それっぽい表現で誤情報をまぎれ込ませます。
ハルシネーションが起こるのは、生成AIの収集データに誤情報がまぎれていたり、生成AIへのプロンプト (指示文) が曖昧であることが多くの原因です。ChatGPTや「Microsoft Copilot」をはじめとするAIツール共通の課題であることも、認識しておく必要があります。
ハルシネーションの誤情報によって、顧客へ誤った説明をしてしまうと、信頼を大きく損なうおそれがあります。また、社内の意思決定の際に使用する、レポートや調査資料、稟議書などに誤りがあると、経営に影響を及ぼす可能性も少なくありません。誤情報のリスクを最小限にするために、効果的な対策を把握しておくことをおすすめします。
ハルシネーションによる誤情報リスクを抑えるうえで、効果的な3つの回避術を紹介します。
プロンプト内に、「事実ベースで」「一次情報を優先して」などの条件付けをすると誤情報削減に有効です。また、「○年以降、内閣府の調査結果から」など、対象データ自体を信頼できるものに限定しておく方法もあります。プロンプトにあらかじめ工夫をしておけば、作業効率の大幅な向上が期待できるでしょう。
「2020年以降の内閣府や総務省の公開資料に基づいて、日本の中小企業におけるテレワーク導入率の推移を、事実ベースで箇条書きにしてください。必ず出典を明記してください。」
生成AIからの情報を活用する場合は、「この内容の根拠は?」と問い直すクセをつけることが大切です。また、出典付きで回答を求めるプロンプトを入力しておけば、情報の精度を担保することができます。 生成AIからの情報に「〜のようです」「とされています」など曖昧な言い回しがある場合は、誤情報の可能性が高いことを理解しておきましょう。
「日本における5G普及率の現状を教えてください。できるだけ直近の統計を使い、出典 (省庁・調査機関など) を明記してください。」
生成AIに任せきりにせず、「編集」「監修」の工程を組み込むことも有効な手段です。複数人でのチェックやファクトチェックツールを活用すれば、簡単に効率よく誤情報を防ぐことができます。
生成AIが生成する情報の信頼性を担保するには、使い方と意識の持ち方がカギになります。 プロンプトの工夫や情報を確認するプロセスを組み込むだけでも、誤情報リスクを大幅に抑えることが可能です。生成AIは“魔法の道具”ではなく“賢い部下”のようなもの。 適切な対策を行えば、「効率」と「安全性」の両立を実現することができるでしょう。
KDDIでは、こうした生成AIのリスクも踏まえ、自社で蓄積した豊富なノウハウを活かしながら、導入から導入後の運用サポートまで一貫してご支援しています。導入時には「オンライン相談デスク」で、お客様の課題やAI活用時の不安・疑問を丁寧にヒアリングし、ハルシネーションをはじめとしたAI活用上の注意点や、最適な活用方法をご提案します。まずはお気軽にご相談ください。
AI活用のヒントをさらに知りたい方は、以下の関連記事もあわせてご覧ください。
AIと上手につき合いながら、業務効率化や新たなビジネスの可能性を切り拓いていきましょう。