NVIDIA CEO’su Jensen Huang, SIGGRAPH‘ta yaptığı açıklamada bu hafta yapay zeka uygulamaları için geliştirilen Blackwell işlemcilerinin mühendislik örneklerini göndermeye başlayacağını söyledi. Blackwell B100 ve B200 grafik işlemcilerine ait örnekler şu anda ortaklara gönderilirken, bu ürünler dördüncü çeyrekte ticari olarak piyasaya sürülmeye başlayacak.
NVIDIA ile ortaklıkları olan Foxconn, Quanta, Wistron, Pegatron ve ASUS gibi donanım üreticileri Computex’te Blackwell tabanlı sunucularını sergilemişti. Bu da demek oluyor ki aslında yeni mimariden güç alan canavar sunucu çipleri zaten bir süredir kullanımda veya test ediliyor. Yazılım geliştiriciler ise şirketin yapay zeka ve HPC uygulamaları için gelecek işlemcilerine henüz erişim sağlayamadı.
Bir Morgan Stanley raporuna göre, sunucu pazarının lideri NVIDIA ve ortakları Blackwell GPU’larla donatılmış AI sunucu kabini başına 2-3 milyon dolar talep edecek. GPU üreticisi bugüne kadar iki referans sunucu kabini tanıttı: 36 B200 GPU’lu NVL36’nın fiyatı yaklaşık 2 milyon dolar ve 72 B200 GPU’lu NVL72’nin fiyatı 3 milyon dolardan başlıyor.
POD olarak da bilinen bu kabinler NVIDIA ile birlikte Foxconn, Quanta, Wistron gibi geleneksel ortaklardan ve ASUS gibi ortaklardan temin edilebilecek. Morgan Stanley, şirketin önümüzdeki yıl 60.000 ila 70.000 B200 sunucu kabini sevk ederek en az 210 milyar dolar gelir elde etmesini bekliyor. AWS, Dell, Google, Meta ve Microsoft gibi büyük oyuncuların Blackwell GPU’ları dört gözle beklediğini tahmin ediyoruz. Böylelikle yapay zeka ekosistemleri için güçlerine güç katacaklar.