Nvidia’nın Yeni Çipleri ile Yapay Zeka Yarışında Üstünlük
Nvidia, H100 çipinin sağladığı güç sayesinde trilyon dolarlık bir şirket haline gelerek yapay zeka çipleri pazarında uzun süre lider konumunu korudu. Ancak görünüşe göre, bu liderlik pozisyonunu sürdürmek için yeni adımlar atmaya devam ediyor. Şirket, Blackwell B200 GPU ve GB200 “süper çip” ile konumunu daha da güçlendirmeyi hedefliyor.
Nvidia, yeni B200 GPU’sunun 208 milyar transistörle donatıldığını ve 20 petaflop’a kadar FP4 işlem gücü sunduğunu duyurdu. Ayrıca, bu GPU’lardan ikisini tek bir Grace CPU ile bir araya getiren GB200’ün, LLM çıkarım iş yükleri için 30 kat daha fazla performans sağlayabileceğini ve enerji verimliliğinin önemli ölçüde artacağını iddia ediyor. Şirket, 1,8 trilyon parametreli bir modelin eğitilmesinin daha önce 8.000 Hopper GPU ve 15 megawatt güç gerektirdiğini belirtirken, bugün 2.000 Blackwell GPU’sunun yalnızca 4 megawatt harcayarak aynı işlemi gerçekleştirebileceği öne sürülüyor.
Nvidia, 175 milyar parametreli bir GPT-3 LLM kıyaslamasında, GB200’ün H100’den 7 kat daha fazla performansa sahip olduğunu ve eğitim hızının 4 kat daha fazla olduğunu vurgulamaktadır. Şirket, en önemli yeniliklerden birinin, her nöron için 8 yerine 4 bit kullanarak hesaplama, bant genişliği ve model boyutunu iki katına çıkartan ikinci nesil bir dönüştürücü motor olduğunu duyurdu. Ayrıca, çok sayıda GPU’yu birbirine bağladığınızda elde edilen yeni nesil NVLink anahtarının, 576 GPU’nun saniyede 1,8 terabayt çift yönlü bant genişliği ile iletişim kurmasını sağladığını belirtti.
Nvidia, bu amaçla 50 milyar transistörlü ve kendi yerleşik işlemcisine sahip yeni bir ağ anahtarı yongası geliştirmiştir. Şirket, daha önce yalnızca 16 GPU’dan oluşan bir veri kümesinin zamanının yüzde 60’ını birbirleriyle iletişim kurarak, yalnızca yüzde 40’ını hesaplama yaparak geçirdiğini ifade etti. Nvidia, şirketlerin bu GPU’lardan büyük miktarlarda satın almasını bekliyor ve bunları, toplamda 720 petaflop AI eğitim performansı veya 1.440 petaflop çıkarım için 36 CPU ve 72 GPU’yu içeren GB200 NVL72 gibi daha büyük tasarımlarda bir araya getiriyor.
- Kabindeki her bir tepsi ya 2 GB200 yongası ya da 2 NVLink anahtarı barındırıyor.
- Her rafta ilkinden 18, ikincisinden ise 9 adet bulunuyor.
Nvidia, bu kabinlerden birinin toplamda 27 trilyon parametreli bir modeli destekleyebileceğini belirtiyor. Şirket, Amazon, Google, Microsoft ve Oracle’ın bulut hizmeti kapsamında NVL72 kabinlerini sunmayı planladığını, ancak kaç tane satın alacaklarının henüz netleşmediğini ifade etti. Ek olarak, toplam 288 CPU, 576 GPU, 240 TB bellek ve 11,5 exaflop FP4 hesaplama kapasitesine sahip 8 sistemi bir araya getiren DGX Superpod for DGX GB200 çözümünü de sunacak.
Nvidia, sistemlerinin yeni Quantum-X800 InfiniBand veya Spectrum-X800 ethernet ile 800Gbps ağ bağlantısıyla on binlerce GB200 süper çipe ölçeklenebileceğini duyurdu. Ancak henüz oyun GPU’ları hakkında yeni bir bilgi verilmedi. Bu haber, Nvidia’nın GPU Teknoloji Konferansı’ndan geliyor ve genellikle burada tamamen GPU hesaplama ve yapay zekaya odaklanılıyor. Ancak, Blackwell GPU mimarisinin gelecekteki RTX 50 serisi masaüstü grafik kartı serisine de güç vermesi bekleniyor.