AIのプロに学ぶ、RTX PRO AIマシンの使いこなし術 第5回
AI推論ライブラリ「TensorRT for RTX」のメリットも
NVIDIA RTX PRO AIワークステーション、Blackwell世代で迎える新たな進化の現在地
2025年07月07日 11時00分更新
ローカルでのAI開発は本格化している
生成AIが急速に社会実装されつつあるいま、その基盤を支えるAI開発環境も大きな転換期を迎えている。
この連載でも追ってきた通り、従来のAIトレーニングには、クラウドやオンプレミスサーバー上に並列配置された多数のGPUがほとんど必須だった。特に大規模言語モデル(LLM)の訓練や、膨大なデータセットを扱う推論処理には、膨大な計算資源とメモリ容量が求められてきたこともあり、この傾向が強かった。
一方、産業での応用が進むにつれて重視されてきたのが「AI推論のローカル開発」である。製造業や医療、建築設計、映像編集など、各分野において実際にAIを組み込むアプリケーションの開発・運用が必要とされ、クラウド依存を前提としない自律的なAI推論環境が求められている状況もある。
たとえば、生成AIによってリアルタイムな応答が求められるデジタルヒューマンやローカルLLM、RAG(検索拡張生成)といった技術領域では、ワークステーションによるローカル処理が現実的な選択肢として存在感を強めてきた(第1回の記事も参照してほしい)。
NVIDIAでは、こうしたニーズに応える形で、プロフェッショナル向けのGPUである「RTX 6000 Ada」などを最大4枚まで搭載可能なAIワークステーションモデルを各社と協力して展開してきた。AI対応アプリケーションの拡大もこの傾向を後押ししており、Adobe系ツールやCAD/CAE、画像・映像編集などの現場でも、AI機能の活用が前提となりつつある。
Blackwell世代のNVIDIA RTX PRO、そのポテンシャルとは
こうした状況の中、2025年春、NVIDIAはさらにその先を見据えた新世代GPUアーキテクチャ「Blackwell世代」を発表した。
「Blackwell世代のNVIDIA RTX PRO GPUは、まさにローカルでのAI開発環境を大きくアップデートする存在です。特に注目すべきは、最大96GBまで拡張されたGPUメモリと、第5世代Tensorコアによる推論性能の向上ですね。メモリ容量は従来比で最大2倍、さらにFP4対応によって、従来の開発と同等の品質を維持しつつも、演算性能とメモリの利用効率が大幅に高まっています」(NVIDIA 高橋想氏)
より大きなAIモデルの運用や、複数ワークロードの同時処理にも余裕を持って対応できるようになったBlackwell世代のNVIDIA RTX PRO GPU。これまで、限られたGPUメモリや計算リソースの中でプロジェクトごとに処理を切り替える必要があった環境でも、Blackwellでは同時並行での開発・検証が現実的になってきた。
特に、複数のAIプロジェクトを抱える現場や、繰り返しのチューニングが必要となる生成AIのプロトタイピングにおいては、こうしたハードウェア性能の底上げが、開発のテンポや柔軟性に直結してくる。
「わかりやすい具体例で言えば、6000 Ada世代のワークステーションで生成に20秒かかっていた画像が、Blackwellではおよそ3秒で生成できるほどに、はっきりと体感できる性能の向上があります。
近年ではNPU搭載の端末も進化していますが、処理性能や対応できるAIモデルの規模では、NVIDIA RTX PROを搭載したワークステーションとはまったく別カテゴリの話になります。NVIDIA RTX PROは最大4000TOPSもの処理性能を持っていますので、本格的なAI推論や開発では、やはりプロ向けのワークステーション環境がこれまで以上に大きな意味を持つようになるでしょう」(NVIDIA 高橋想氏)

この連載の記事
-
第4回
sponsored
「買ってすぐ業務に使える」ローカル完結型のRAGが生まれた背景 -
第3回
sponsored
AIワークステーション “Lenovo ThinkStation”は「効率的で、しかも安い」価値創造の源泉 -
第2回
sponsored
いま、NVIDIA RTX AIワークステーションを導入する企業が増えている理由 -
第1回
sponsored
生成AIの次なるステージ:ローカル環境がビジネスの新しい扉を開く理由 - この連載の一覧へ