ニュース

クアルコム、データセンター向け次世代AI推論ソリューション「AI200」、「AI250」発表

 米Qualcomm(クアルコム)は、データセンター向け次世代AI推論ソリューションとして、アクセラレータカードとラックを含む「Qualcomm AI200」と「Qualcomm AI250」を発表した。

 「Qualcomm AI200」は、大規模言語モデル(LLM)やマルチモーダルモデル(LMM)のAI処理において、総所有コスト(TCO)を低減し最適化されたパフォーマンスを実現するよう設計された。カードあたり768GBのLPDDRメモリーをサポートし、AI推論のための高いメモリー容量と柔軟な拡張性を実現した。商用化予定は2026年。

 「Qualcomm AI250」は、ニアメモリー・コンピューティングに基づくメモリーアーキテクチャを採用。AI推論ワークロードにおいて10倍以上の実効メモリー帯域幅と、消費電力の大幅削減を実現した。これにより分散型AI推論が可能となり、ハードウェアの効率的な活用とユーザーのパフォーマンス、コスト要件を満たせるという。商用化予定は2027年。

共通仕様とソフトウェア面

 両ソリューションは、ラックレベルで160kWの消費電力で動作し、熱効率を高めるための直接液体冷却システムを備える。また、スケールアップのためのPCIe、スケールアウトのためのイーサネット、安全なAIワークロードのための機密コンピューティングを特徴としている。

 ソフトウェア面では、AI推論に最適化されたハイパースケーラーグレードのAIソフトウェアスタックを提供する。主要な機械学習(ML)フレームワークや推論エンジンなどのLLM/LMM推論最適化手法をサポート。

 このほか「Efficient Transformers Library」などを通じて、Hugging Faceモデルなどをワンクリックで利用でき、AIアプリケーションやエージェントなどを開発者に提供する。