このページはJavaScriptを使用しています。JavaScriptを有効にして、または対応ブラウザでご覧下さい。

なぜ今、AIデータセンターが必要なのか?従来のデータセンターとの違いを解説

なぜ今、AIデータセンターが必要なのか?
従来のデータセンターとの違いを解説

AIの進化ビジネス加速させる時代従来のITインフラでは処理しきれない膨大計算リソースが求められています。特に生成AIや大規模言語モデル登場により、企業が扱うデータ演算負荷急増しており、それを支えるインフラとして注目されているのが「AIデータセンター」です。本記事では、その必要性従来型データセンターとの違い、そしてKDDIが進める最新の取り組みをご紹介します。



AIデータセンターとは

AIデータセンターとは、AIの大規模計算処理データ解析特化したデータセンターです。従来データセンターと比べて高い処理能力を持ち、膨大データを使った機械学習深層学習効率的実行できるよう設計されています。

そのため、高性能GPU (グラフィックス処理装置) やAI専用プロセッサ多数搭載し、大量データ高速処理するための高速ネットワークインフラを備えています。また、こうした高度演算処理には膨大電力熱発生を伴うため、従来型にはない強力冷却システム導入されている点が特徴です。

言い換えれば、AIデータセンターは「AI計算特化した高性能データセンター」です。一般的データセンター安定稼働汎用性重視しているのに対し、AIデータセンターはAIモデル学習と推論といった、大量演算高帯域幅必要とするワークロード対応するよう設計されています。

具体的には、GPUやTPUなどの専用アクセラレータ (注1)多数配置して並列処理能力最大限に高め、メモリー帯域ネットワーク速度強化することで、大規模なAI演算高速処理できるようになっています。これにより、従来は難しかった短時間での高精度なAIモデル生成リアルタイム推論可能となり、AI技術のさらなる進化を支える基盤となっています。

  • 注1) アクセラレータ機器ソフトウェアシステムなどに追加して性能向上させる機材

AIデータセンターがなぜ今必要か

近年生成AIブームにより、AIを取り巻く環境は大きく変化しています。特に、2022年末公開されたChatGPTに代表される大規模言語モデル (LLM) の登場以降、AIモデル規模利用爆発的拡大しました。こうした高度なAIを支えるには、非常強力計算リソース必要であり、その中核を担うGPUは、AIモデル学習推論不可欠存在となっています。

昨今数千数万規模高性能GPUが必要モデル利用も進んでおり、それに伴ってデータセンターにおけるGPU需要急増しています。実際生成AIの普及がこの需要をけん引しており、今後さらに加速すると見込まれています。

この「AIインフラ需要急増」は、企業にとっても無関係ではありません。多くの企業組織が、競争力を高めるためにAIによる高度分析自動化予測技術活用模索しており、その実現には従来以上大規模計算リソースが欠かせません。新たに登場した生成AIモデル大規模言語モデルは、従来インフラでは処理が追いつかないほど莫大計算能力必要とするため、既存設備では対応が難しくなっているのです。

実際最新のAIモデルではパラメータ数が兆単位に達しており、その学習運用には、専用設計データセンター環境不可欠です。KDDIが導入計画している次世代GPU基盤を用いることで、「兆単位パラメータ」の大規模生成AIモデル高速開発できるとしており、こうした最先端AIを扱うためのインフラ整備が、産業界において急務となっています。


従来のデータセンターとの比較

上記背景を踏まえると、AIデータセンターには従来型とは異なる設計技術が求められるようになっています。最大の違いは、処理負荷に応じた最適化方向性にあります。従来データセンターは、Webサービス企業内システムなど多様用途安定的運用することを重視し、汎用サーバー柔軟収容できるインフラや、電源空調冗長性を備えています。

一方、AIデータセンターは、大規模並列計算高速通信前提としたAIワークロード特化して設計されています。そのため、ハードウェア構成から冷却方式に至るまで、従来型とは大きく異なるインフラが求められます。以下に、主な相違点整理します。

以上のように、AIデータセンターは、計算性能冷却電力各面で、従来型よりも強化特化された設計になっています。今後、AI需要拡大に伴い、既存空冷中心データセンターでも水冷設備増設ニーズが高まると予想されており、業界全体次世代型への移行が進むとみられます。


KDDIの取り組み

AIの活用が進むなか、KDDIは次世代データセンター構築技術基盤整備注力しています。とくに、大規模GPUの安定稼働を支える冷却電力インフラ開発世界的なAIモデルとの連携見据えた環境づくりを進めています。以下では、具体的取組として、大阪堺でのAIデータセンター建設水冷技術検証について紹介します。

水冷の実証

前述のとおり、水冷はAIデータセンターに不可欠な技術ですが、最新GPUを安定して運用するには高度なノウハウが求められます。そこでKDDIは、大阪堺データセンターの本格稼働に先立ち、2025年4月に東京都内の「KDDI Telehouse 渋谷データセンター」内にAIデータセンター技術の検証環境を開設しました。(注3)

この環境は、直接液冷方式 (DLC) に対応したサーバーと、GPU並みの発熱を再現するヒーター装置を組み合わせて構築されており、最大300kVAの電源容量と300kWの冷却能力を備えています。これは、堺AIデータセンターに導入予定の最新GPUを想定した規模で、実機導入前に電源と空調の両面から検証を行うことを目的としています。

また、温度や消費電力を計測する各種センサーや漏水検知センサーも設置されており、水冷サーバーの運用におけるデータ収集と監視が可能です。

KDDIはこの設備を社内検証だけでなく、パートナー企業との共同検証にも活用し、次世代データセンター向けの新たな電源技術・冷却技術の確立を目指しています。なお、本検証環境での取り組みは、2025年3月に開催された「MWC Barcelona 2025」でも紹介され、国内外に向けてKDDIの技術開発力を発信しています。

KDDIは、今後この大阪堺AIデータセンター自社のAI事業プラットフォームWAKONX」と連携させ、企業向サービス活用することを進めていきます。同センターのGPUリソースを、汎用AIクラウドサービス業界特化型AIソリューション、AI開発者向プラットフォームとして提供し、日本企業のAI活用とDX推進支援することを目指します。