- カスタマーサポート
- デジタル上でのユーザーとの対話
通信と多様なケイパビリティを活用し、DXと事業基盤サービスでお客さまビジネスを支援します。
CO2排出量の可視化から削減まで、一貫してカーボンニュートラル実現を支援します。
KDDIは『つなぐチカラ』でビジネス、ライフスタイル、社会をアップデートします。
場所にとらわれずつながるソリューションを、デバイスからセキュリティまで支援します。
多数の次世代型低軌道衛星により高速・低遅延通信を提供します。
データセンターからネットワークまで、業務に最適なソリューションをトータルで提供します。
中小規模の事業者向けに特化したスマートフォンのご利用方法のご案内です。
中小規模事業者のやりたいことや変えたいことを、モバイルとクラウドの技術を用いてサポートします。
LLMはLarge Language Modelsの略で、大量のデータとディープラーニング (深層学習) 技術で構築された言語モデルを指します。従来の言語モデルに比べて、処理するデータ量や計算量が格段に増えているのが特長です。
また、言葉の予測や生成に使われるパラメータ (計算の基になる数値) の数も飛躍的に増加しています。これらの要因から、人間により近い自然な会話や高精度な処理が実現可能になりました。
LLMは、事前学習 (Pre-Training) と微調整 (Fine-Tuning) という2段階のプロセスを経て構築されています。
その後の基本的な処理の流れは以下のとおりです。
1. トークン化 | → | 2. 文脈理解 | → | 3. エンコード | → |
---|---|---|---|---|---|
入力文を単語、サブワード、または文字などのトークン (最小単位) に分解 | 数値データに変換し、プロンプト内の各トークン間の関連性を計算 | 各単語の特徴量を抽出 | |||
4. デコード | → | 5. 確率出力 | |||
エンコードされたデータを基に、次のトークンを予測 | 入力文の次のトークンの確率を出力 |
LLMのモデルによって細かな流れは異なりますが、基本的には以上の手順を繰り返して文書生成が実行されます。事前に大量のデータを学習し、得られた知識を基に、次に続くトークンの出現確率を計算し、最も適切な言葉や文章を生成する仕組みです。
ここでは、LLMと生成AI・ChatGPTとの違いについて解説します。
生成AIは、テキスト、画像、音声、動画など、さまざまな種類のコンテンツを自動で生成する技術を指します。一方、LLMは、生成AIの一種であり、特に自然言語の理解と生成に特化したモデルです。
つまり、生成AIは幅広いメディアコンテンツを生成できる包括的な技術であり、LLMはその中でもテキスト処理に焦点を当てたモデルといえます。
ChatGPT (Chat Generative Pre-trained Transformer) は、アメリカのOpenAIが開発・提供する対話型AIです。ビジネスから日常生活まで、幅広い分野で革新的なサービスとして注目を集めています。このChatGPTの基盤となっているのがLLMという技術です。ChatGPTはLLMを活用したサービスの一例であり、製品と技術という関係性に当たります。LLMはAIサービス構築において不可欠な要素です。
LLMの種類は、大きく以下の3つです。それぞれの特徴をみていきましょう。
OpenAI o1 (注1) は、2024年9月にOpenAI社が発表したLLMです。o1には思考プロセスが導入されており、科学的分析やプログラミングなどの複雑な問題解決に強みを持っています。さらに 2024年12月には 、より深い思考と高精度な回答を行うo1 pro modeと呼ばれるモデルも提供が開始されました。 同月には、次世代モデルo3 (注2) がOpenAI社から発表され、2025年4月には本格版とo4-mini (注3) がリリースされました。なお、コンパクトな推論モデルであるo3-miniとo3-mini high (注4) は2025年1月より提供されています。
Llamaシリーズは、Meta社が開発したLLMです。2023年7月に発表されたLlama 2 (注5) では70億、130億、700億パラメータの3種類を用意し、事前学習版とチャット特化版を公開しました。さらに、2024年9月のLlama3.2 (注6) では、モバイル利用向けの軽量テキストモデル (1B、3B) と、画像理解に優れたビジョンモデル (11B、90B) が加わっています。軽量テキストモデルは少ない計算リソースでの多言語対応を実現し、ビジョンモデルはベンチマークで優れた数値を記録しているのが特長です。
Gemini 2.0 Flash Thinking (注7) は、2024年12月にGoogleがリリースした新しいLLMです。同月発表のGemini 2.0 Flashの派生モデルであり、回答時に思考過程を生成することで、より高度な推論が可能となっています。ベースとなるGemini 2.0 Flashは、先代モデルの2倍の処理速度と高い精度を誇っており、特にコーディングや数学的問題解決に強みを持っているのが特長です。最新モデルはGoogle AI StudioとGemini APIで試験運用版として提供され、テキストと画像入力に対応しています。
LLMの強みは自然な文章理解と生成能力です。すでに以下のような幅広い分野で活用されています。
これらの活用分野のうち、ビジネス現場における具体的な活用例をみていきましょう。
KDDIはアルティウスリンク、ELYZAとの3社で、コンタクトセンター業務特化型LLMアプリケーションを開発しました。2024年9月から「Altius ONE for Support」として提供を開始し、業務効率化とサービス品質向上を実現しています。
また、ELYZAと明治安田生命保険相互会社では、電話対応後の「アフターコールワーク」を自動化しました。日本語特化型LLMによる応対メモの自動作成により、年間約55万件の作業時間を約30%削減できる見込みです。
LLMは古くから研究が進められてきた技術です。ここでは、LLMの歴史を簡単に紹介します。
1940年代-1980年代 | 1940年代から1980年代は、現代のLLMにつながる基礎理論が確立された時代です。1943年にニューラルネットワークに関する最初の科学論文が発表され、その後、1989年にはヤン・ルカンによって誤差逆伝播ニューラルネットワークの画像認識への応用可能性が示されました。 |
---|---|
2012年 | 2012年に発表されたヒントンらの研究では、深層ニューラルネットワーク (DNN) が音声認識において従来の手法を大幅に上回る性能を示しました。 |
2017-2018年 | 2017〜2018年になり、現代のLLMの基礎が構築されます。2017年のトランスフォーマーアーキテクチャの登場と、2018年のGoogleによるBERT導入など、重要な技術革新が相次ぎました。 |
2020-2022年 | 2020年にOpenAI社がGPT-3をリリースし、2022年にはChatGPTが一般公開されました。2020〜2022年にかけて、LLMと生成AIが社会に広く認知されるようになります。 |
2023年-現在 | 2023年、LlaMA 2やGPT-4といった新たなLLMの登場により、オープンソースモデルが台頭し、性能も大きく向上しました。現在、LLMは多様化と高性能化の一途をたどっています。(注8) |
現時点でLLMにはいくつかの課題があります。
一つが「ハルシネーション」です。ハルシネーションとは、AIが誤った情報や無関係な内容を事実のように出力する現象を指します。そのため、LLMの出力情報は、複数の情報源で検証することが不可欠です。セキュリティ面では、不正なプロンプトによる「プロンプトインジェクション」対策が重要な課題となっています。機密情報の漏えいといったリスクを回避すべく、類似プロンプトのブロックやフィルターを用いた入力制限を含む、防御体制の構築が必要です。
また、LLMの開発・運用面での課題も看過できません。LLMの作成には膨大なテキストデータと高性能な機器を要し、環境整備に多大な初期コストがかかります。そのため、資金力のある一部の大企業による独占が懸念されているのが現状です。
LLMは、カスタマーサポートや文章作成、リアルタイム翻訳、情報検索など、ビジネスのさまざまな場面で活用されています。
LLMを適切に運用すれば、業務効率化やサービスの品質向上につながるでしょう。今後のAI技術の発展により、LLMはさらなる活用範囲の拡大が期待されています。効果的に活用するためには、各企業の業務内容や目的に合わせたLLMを導入することが重要です。
LLMを活用した生成AIサービスの導入には、セキュリティ対策を含めた運用方針の策定が必要不可欠です。KDDIでは、生成AI導入時のコンサルティングから設計、構築までトータルでサポートいたします。生成AIによる業務効率化や課題解決を実現するためのご支援が可能です。
生成AIの活用をご検討している方は、お気軽にお問い合わせください。