AIの進化がビジネスを加速させる時代、従来のITインフラでは処理しきれない膨大な計算リソースが求められています。特に生成AIや大規模言語モデルの登場により、企業が扱うデータや演算負荷は急増しており、それを支えるインフラとして注目されているのが「AIデータセンター」です。本記事では、その必要性と従来型データセンターとの違い、そしてKDDIが進める最新の取り組みをご紹介します。
AIデータセンターとは、AIの大規模な計算処理やデータ解析に特化したデータセンターです。従来のデータセンターと比べて高い処理能力を持ち、膨大なデータを使った機械学習や深層学習を効率的に実行できるよう設計されています。
そのため、高性能なGPU (グラフィックス処理装置) やAI専用プロセッサを多数搭載し、大量のデータを高速に処理するための高速ネットワークインフラを備えています。また、こうした高度な演算処理には膨大な電力と熱発生を伴うため、従来型にはない強力な冷却システムも導入されている点が特徴です。
言い換えれば、AIデータセンターは「AI計算に特化した高性能データセンター」です。一般的なデータセンターが安定稼働や汎用性を重視しているのに対し、AIデータセンターはAIモデルの学習と推論といった、大量の演算や高帯域幅を必要とするワークロードに対応するよう設計されています。
具体的には、GPUやTPUなどの専用アクセラレータ (注1) を多数配置して並列処理能力を最大限に高め、メモリー帯域やネットワーク速度も強化することで、大規模なAI演算を高速に処理できるようになっています。これにより、従来は難しかった短時間での高精度なAIモデルの生成やリアルタイム推論が可能となり、AI技術のさらなる進化を支える基盤となっています。
近年の生成AIブームにより、AIを取り巻く環境は大きく変化しています。特に、2022年末に公開されたChatGPTに代表される大規模言語モデル (LLM) の登場以降、AIモデルの規模と利用が爆発的に拡大しました。こうした高度なAIを支えるには、非常に強力な計算リソースが必要であり、その中核を担うGPUは、AIモデルの学習や推論に不可欠な存在となっています。
昨今、数千〜数万規模の高性能GPUが必要なモデルの利用も進んでおり、それに伴ってデータセンターにおけるGPU需要も急増しています。実際、生成AIの普及がこの需要をけん引しており、今後さらに加速すると見込まれています。
この「AIインフラ需要の急増」は、企業にとっても無関係ではありません。多くの企業や組織が、競争力を高めるためにAIによる高度な分析、自動化、予測技術の活用を模索しており、その実現には従来以上に大規模な計算リソースが欠かせません。新たに登場した生成AIモデルや大規模言語モデルは、従来のインフラでは処理が追いつかないほど莫大な計算能力を必要とするため、既存設備では対応が難しくなっているのです。
実際、最新のAIモデルではパラメータ数が兆単位に達しており、その学習や運用には、専用設計のデータセンター環境が不可欠です。KDDIが導入を計画している次世代GPU基盤を用いることで、「兆単位パラメータ」の大規模生成AIモデルも高速に開発できるとしており、こうした最先端AIを扱うためのインフラ整備が、産業界において急務となっています。
上記の背景を踏まえると、AIデータセンターには従来型とは異なる設計や技術が求められるようになっています。最大の違いは、処理負荷に応じた最適化の方向性にあります。従来のデータセンターは、Webサービスや企業内システムなど多様な用途を安定的に運用することを重視し、汎用サーバーを柔軟に収容できるインフラや、電源・空調の冗長性を備えています。
一方、AIデータセンターは、大規模な並列計算や高速通信を前提としたAIワークロードに特化して設計されています。そのため、ハードウェア構成から冷却方式に至るまで、従来型とは大きく異なるインフラが求められます。以下に、主な相違点を整理します。
以上のように、AIデータセンターは、計算性能・冷却・電力の各面で、従来型よりも強化・特化された設計になっています。今後、AI需要の拡大に伴い、既存の空冷中心のデータセンターでも水冷設備の増設ニーズが高まると予想されており、業界全体で次世代型への移行が進むとみられます。
AIの活用が進むなか、KDDIは次世代データセンターの構築と技術基盤の整備に注力しています。とくに、大規模GPUの安定稼働を支える冷却や電力インフラの開発、世界的なAIモデルとの連携を見据えた環境づくりを進めています。以下では、具体的な取組として、大阪堺でのAIデータセンターの建設、水冷技術の検証について紹介します。
前述のとおり、水冷はAIデータセンターに不可欠な技術ですが、最新GPUを安定して運用するには高度なノウハウが求められます。そこでKDDIは、大阪堺データセンターの本格稼働に先立ち、2025年4月に東京都内の「KDDI Telehouse 渋谷データセンター」内にAIデータセンター技術の検証環境を開設しました。(注3)
この環境は、直接液冷方式 (DLC) に対応したサーバーと、GPU並みの発熱を再現するヒーター装置を組み合わせて構築されており、最大300kVAの電源容量と300kWの冷却能力を備えています。これは、堺AIデータセンターに導入予定の最新GPUを想定した規模で、実機導入前に電源と空調の両面から検証を行うことを目的としています。
また、温度や消費電力を計測する各種センサーや漏水検知センサーも設置されており、水冷サーバーの運用におけるデータ収集と監視が可能です。
KDDIはこの設備を社内検証だけでなく、パートナー企業との共同検証にも活用し、次世代データセンター向けの新たな電源技術・冷却技術の確立を目指しています。なお、本検証環境での取り組みは、2025年3月に開催された「MWC Barcelona 2025」でも紹介され、国内外に向けてKDDIの技術開発力を発信しています。
KDDIは、今後この大阪堺AIデータセンターを自社のAI事業プラットフォーム「WAKONX」と連携させ、企業向けサービスに活用することを進めていきます。同センターのGPUリソースを、汎用AIクラウドサービスや業界特化型AIソリューション、AI開発者向けプラットフォームとして提供し、日本企業のAI活用とDX推進を支援することを目指します。