サーバー水準の性能をノートPCへ。NPU・GPU・CPUの適材適所でビジネスを加速する『AMD Ryzen AI プロセッサ』の真価[Sponsored]
![サーバー水準の性能をノートPCへ。NPU・GPU・CPUの適材適所でビジネスを加速する『AMD Ryzen AI プロセッサ』の真価[Sponsored]](/api/image-proxy?url=https%3A%2F%2Fcloud.watch.impress.co.jp%2Fimg%2Fclw%2Flist%2F2096%2F909%2F011A_iam-71.jpg)
ナビタイム、旅費規程を適用したルート申請で交通費申請の差し戻しなどを防ぐサービス「旅費・交通費精算クラウド」を6月に提供 AIが世の中に普及するにつれて、AI専用ツールはもとより、アプリケーションやOSなどにもAIを使った機能が組み込まれるようになってきた。それとともに、AI推論をローカルで動かす能力を持ったWindows PCの「AI PC」が登場し、その中でもマイクロソフトが定めたスペックを満たす「Copilot+ PC」の製品も2024年から次々と発売されている。 AI PCやCopilot+ PCでは、CPUにNPUやGPUを内蔵することで、ノートPCでもローカルAIを動かせる。こうしたAI PC対応CPUも、登場してからすでに世代を重ねている。 今回は、AMDのAI PC対応CPUとその特徴、そしてAI PC戦略について、日本AMDの関根正人氏(コマーシャル営業本部 セールスエンジニアリング
マネージャー)と楊博光氏(コマーシャル営業本部 部長)に話を聞いた。 AMDは、1月初頭のCES 2026で、AI PC向けCPUの最新版「AMD Ryzen AI 400 シリーズ」を発表。すでに搭載PCが各社から発売されている。 前世代のAMD Ryzen AI 300シリーズとの違いについて、関根氏は「電力効率や性能を強化した正常進化版」と説明する。300シリーズから続いて、CPUにZen 5/Zen 5cアーキテクチャを、GPUにRDNA 3.5アーキテクチャを、NPUにAMD XDNA 2アーキテクチャを採用。それぞれが強化され、NPU単体のAI性能も最大60 TOPSに引き上げられた。電力効率も向上している。 こうした点について楊氏は「AMD Ryzen AI 300シリーズのStrix PointとKrackan Point、そしてAMD Ryzen AI 400シリーズのGorgon Pointと、Zen
5も3世代目となり、完成度には自信があります」と語る。 加えて、楊氏はAMD Ryzen AI 400シリーズ中でエントリー向けであるAMD Ryzen AI 5の価格もアピールポイントとして挙げる。「Copilot+ PCの市場を広げるために、AMDとしても挑戦的な価格で出しています。今までCopilot+ PCは価格が高いイメージがありました。それに対し、それほどマルチタスクで負荷をかけるような使い方をしない方でもCopilot+ PCのAI機能を使いたいという声が多かったので、そうしたメインストリームの領域をカバーする製品ラインナップです」。 なお3月には、ノートPC用だけでなく、デスクトップPC向けにSocket AM5対応の「AMD Ryzen AI PRO 400」も発表された。前世代の300シリーズでも一部のPCメーカーにデスクトップ向けのAMD Ryzen AIが出荷されていたが、デスクトップ向けのAMD
Ryzen AIが正式に投入されるかたちとなる。 AMD Ryzen AIシリーズ全般の特徴としては、サーバー向けCPUの「AMD EPYC」とPC向けCPUの「AMD Ryzen」が共通アーキテクチャで作られている点を関根氏は強調した。 「データセンターのサーバー、さらにはHPCの市場において、AMDのCPUはいいポジションにあります。EPYCは、コア性能でも、ソケットあたりの最大の性能でも、群を抜いています。そうしたHPCにも耐えるコア設計を、PCでも使っています」と関根氏。 「同時に、現在はデータセンター向けでも低消費電力が求められていて、AMD EPYCは電力効率も高いプロセッサになっています。そのため、このコアをそのままノートPCのAMD Ryzen AIに持ってきて、高性能と低消費電力を両立できています」(関根氏)。
共通アーキテクチャのメリットとしては、「設計から部材まで統一することにより、シンプルにして、開発リソースを集中できます。結果、高い品質水準を実現できます」と楊氏。「より早く新しいアーキテクチャに投資できます。また、何か問題があったときに、いくつものアーキテクチャがあると問題解決が難しくなりますが、統一されていれば最短距離で解決にたどり着けます」(楊氏)。 そのCPUコアにおいても、「Zen 4のころから、AVX-512などAIで使われる命令セットを拡充しています。これについても、データセンター向けだけでなくクライアント向けでも共通です」と関根氏は言う。「AMDとしては、NPUやGPUだけでなく、CPUでもAI処理に対応していくという方針です」(関根氏)。 また、GPUコアも強化。「Ryzen AI
300や400のハイエンド製品では、外付けGPUのエントリークラス相当の性能を内蔵GPUで実現しています。これによって、大きなAIモデルを内蔵GPUでも動かせるようになります。また、今はOffice製品でも知らないところでGPUを使うようになっているので、生産性を底上げする意味でも大事だと思います」(関根氏)。 Ryzen AIシリーズでGPUを強化した製品としては、「AMD Ryzen AI MAXシリーズ(コードネームStrix Halo)」がある。グラフィックワークステーション向けの製品で、GPUのCU(Compute Unit)が最大40コアとなっている。CES 2026では、ミニPCフォームファクターにAMD Ryzen AI MAX シリーズを搭載したAIコンピューター「AMD Ryzen AI Halo」も発表された。ミニPCながら最大128GBの統合メモリを搭載可能で、大規模生成
AIモデルのローカル開発にも対応する、AI開発者向けのミニワークステーションだ。 このように、ローカルAI処理において、NPUだけでなく、GPUやCPUも含めた3つで対応している点を、AMD Ryzen AIの特徴として関根氏は挙げる。元から得意とする内蔵GPUコアに、データセンター譲りのCPUコア、そして強化されたNPUの組み合わせだ。 AI処理でのCPU、GPU、NPUの使い分けについて、「NPUでできるのであれば、それに越したことはない」と関根氏。AIを低消費電力で素早く処理できるため、比較的小型のAIモデルで、応答速度を重視した処理は、NPUが向いているという。 CPUでAI処理を担当するケースもある。「データセンターでも、軽いAIモデルであれば、高価なGPUではなくCPUで処理させるケースも増えてきています。また、処理がGPUやNPUで動くように作られていない場合でも、CPUであれば処理できます」と関根氏。
このように、さまざまなAIのモデルやユースケースに対応するのに、NPU、GPU、CPUを適材適所で使えることが重要だ、というのが関根氏の説明するところだ。
