Reklamcılık
Nvidia'nın San José, Kaliforniya'daki şirket içi ticaret fuarı GTC 2024, yıllardan beri ilk kez şahsen gerçekleşti ve şaşırtıcı olmayan bir şekilde tamamen yapay zeka ile ilgiliydi. Nvidia, hızlandırıcı çipleriyle şu anda veri merkezleri pazarına hakim durumda ve yapay zeka patlamasının ardından birbiri ardına finansal rekor sonuçlar üretiyor.
Nvidia patronu Huang bunun böyle kalmasını istiyor. Yeni tanıtılan Blackwell hızlandırıcı mimarisi, B100'den DGX GB200 SuperPOD'a kadar yıl içinde pazara sunulması planlanan çeşitli ürünler biçiminde merkezi bir rol oynuyor. Kağıt üzerinde Blackwell GPU'lar, AMD'nin yepyeni MI300 hızlandırıcılarıyla karşılaştırıldığında bazı veri formatlarında iki kat daha fazla verim elde ediyor.
Yeni Blackwell mimarisi ve 4 bitlik kayan nokta gibi daha da azaltılmış veri formatlarının yanı sıra yeni işlevlerle odak noktası öncelikle enerji verimliliği ve bireysel yongalar arasındaki veri alışverişidir. Bu nedenle NVLink anahtarı ve ağ teknolojisi de yükseltildi.
Nvidia patronu Huang, Blackwell (solda) ve Hopper'ı (sağda) kameraya doğru tutuyor.
(Resim: c't)
Nvidia geleneksel olarak fiyatları isimlendirmez ve ortaklarına atıfta bulunur, ancak AI heyecanı azalmadan devam ettiği sürece çiplerin neredeyse fiyattan bağımsız olarak satılması muhtemeldir. Her durumda, Nvidia zaten müşteri olarak Amazon Web Services, Google Cloud ve Oracle Cloud'u kazandı ancak bulut sunucularının ne zaman rezerve edilebileceğini tam olarak belirtmiyor. Bu arada eski H100 ürünleri de üretim hattından çıkmaya devam ediyor.
Blackwell çift çip
Nvidia, Blackwell ile yeni bir çığır açıyor ancak bazı açılardan kendisine sadık kalıyor. Blackwell “GPU” iki ayrı çipten oluşur. Nvidia, ikisinin işlevsel olarak aynı olup olmadığı sorumuzu yanıtlamak istemedi ancak her ikisinin de pozlama seçeneklerinin sınırına ulaştığını belirtti. Bu, her birinin yaklaşık 800 mm² boyutunda olması gerektiği ve dolayısıyla tek başına önceki H100 (814 mm²) ve A100 (826 mm²) kadar yer kaplaması gerektiği anlamına gelir. Genellikle farklı çiplerin birleştirilmesi anlamına geldiği anlaşıldığından chiplet kelimesinden bahsedilmedi.
Nvidia, Blackwell çiplerini TSMC'de “4NP” adı verilen ve üreticinin genel terminolojisine uymayan bir süreçte ürettiriyor. Nvidia, bunun N4P'nin bir türevi olup olmadığı veya sürecin hangi özelliklere sahip olduğu konusunda yanıt vermedi; ancak bunun, her zamanki gibi birkaç parametrenin müşteri gereksinimlerine göre ayarlandığı N4P olduğunu varsayıyoruz.
Nvidia'nın yalnızca Blackwell GPU olarak adlandırdığı her iki çip de birbirine saniyede 10 TByte (her yönde 5 TBytes/s) hızında hızlı bir arayüz aracılığıyla bağlanıyor. Nvidia'ya göre bu, performans açısından tek bir GPU gibi davranmaları için yeterli. Karşılaştırma için: Nvidia'nın üst düzey GeForce RTX 4090 grafik kartlarında veri bağlantı örneği olarak seviye 2 önbellek ile saniyede yaklaşık 5 TByte ölçtük, AMD'nin MI300 hızlandırıcı yongaları birbirine 1,5 TByte/s'ye kadar bağlanıyor.
192 GB HBM3e bellek
Bellek söz konusu olduğunda Nvidia elinden geleni yapıyor ve sekiz adet 24 GB hızlı HBM3e bellek yığınıyla başlıyor. Toplamda 192 GB'a kadar ve 8 TB/s aktarım hızı bir araya geliyor. Bellek boyutu açısından şirket, AMD'nin MI300X'iyle aynı seviyede ancak B100'ün aktarım hızı yaklaşık yüzde 50 daha yüksek; yükseltme de gerekliydi çünkü Nvidia'nın H100 nesli, özellikle bellek boyutu söz konusu olduğunda geride kalıyordu. Sekiz yığınla, teorik olarak daha sonra 36 GB'lık yığına geçme ve kapasiteyi 288 GB'a çıkarma seçeneğiniz de vardır.
Sunumda iç yapıya dair sadece birkaç detay vardı. Nvidia yalnızca Tensor çekirdekleri için performans verilerini verdi ancak geleneksel gölgelendirici hesaplayıcıları ve diğer birimler hakkında sessiz kaldı.
Tablodaki sunum için verim değerlerini seyrek olarak kullandık; yoğun nüfuslu matrislerde teraflop rakamları yarıya iner.
Nvidia'nın San José, Kaliforniya'daki şirket içi ticaret fuarı GTC 2024, yıllardan beri ilk kez şahsen gerçekleşti ve şaşırtıcı olmayan bir şekilde tamamen yapay zeka ile ilgiliydi. Nvidia, hızlandırıcı çipleriyle şu anda veri merkezleri pazarına hakim durumda ve yapay zeka patlamasının ardından birbiri ardına finansal rekor sonuçlar üretiyor.
Nvidia patronu Huang bunun böyle kalmasını istiyor. Yeni tanıtılan Blackwell hızlandırıcı mimarisi, B100'den DGX GB200 SuperPOD'a kadar yıl içinde pazara sunulması planlanan çeşitli ürünler biçiminde merkezi bir rol oynuyor. Kağıt üzerinde Blackwell GPU'lar, AMD'nin yepyeni MI300 hızlandırıcılarıyla karşılaştırıldığında bazı veri formatlarında iki kat daha fazla verim elde ediyor.
Yeni Blackwell mimarisi ve 4 bitlik kayan nokta gibi daha da azaltılmış veri formatlarının yanı sıra yeni işlevlerle odak noktası öncelikle enerji verimliliği ve bireysel yongalar arasındaki veri alışverişidir. Bu nedenle NVLink anahtarı ve ağ teknolojisi de yükseltildi.

Nvidia patronu Huang, Blackwell (solda) ve Hopper'ı (sağda) kameraya doğru tutuyor.
(Resim: c't)
Nvidia geleneksel olarak fiyatları isimlendirmez ve ortaklarına atıfta bulunur, ancak AI heyecanı azalmadan devam ettiği sürece çiplerin neredeyse fiyattan bağımsız olarak satılması muhtemeldir. Her durumda, Nvidia zaten müşteri olarak Amazon Web Services, Google Cloud ve Oracle Cloud'u kazandı ancak bulut sunucularının ne zaman rezerve edilebileceğini tam olarak belirtmiyor. Bu arada eski H100 ürünleri de üretim hattından çıkmaya devam ediyor.
Blackwell çift çip
Nvidia, Blackwell ile yeni bir çığır açıyor ancak bazı açılardan kendisine sadık kalıyor. Blackwell “GPU” iki ayrı çipten oluşur. Nvidia, ikisinin işlevsel olarak aynı olup olmadığı sorumuzu yanıtlamak istemedi ancak her ikisinin de pozlama seçeneklerinin sınırına ulaştığını belirtti. Bu, her birinin yaklaşık 800 mm² boyutunda olması gerektiği ve dolayısıyla tek başına önceki H100 (814 mm²) ve A100 (826 mm²) kadar yer kaplaması gerektiği anlamına gelir. Genellikle farklı çiplerin birleştirilmesi anlamına geldiği anlaşıldığından chiplet kelimesinden bahsedilmedi.
Nvidia, Blackwell çiplerini TSMC'de “4NP” adı verilen ve üreticinin genel terminolojisine uymayan bir süreçte ürettiriyor. Nvidia, bunun N4P'nin bir türevi olup olmadığı veya sürecin hangi özelliklere sahip olduğu konusunda yanıt vermedi; ancak bunun, her zamanki gibi birkaç parametrenin müşteri gereksinimlerine göre ayarlandığı N4P olduğunu varsayıyoruz.
Nvidia'nın yalnızca Blackwell GPU olarak adlandırdığı her iki çip de birbirine saniyede 10 TByte (her yönde 5 TBytes/s) hızında hızlı bir arayüz aracılığıyla bağlanıyor. Nvidia'ya göre bu, performans açısından tek bir GPU gibi davranmaları için yeterli. Karşılaştırma için: Nvidia'nın üst düzey GeForce RTX 4090 grafik kartlarında veri bağlantı örneği olarak seviye 2 önbellek ile saniyede yaklaşık 5 TByte ölçtük, AMD'nin MI300 hızlandırıcı yongaları birbirine 1,5 TByte/s'ye kadar bağlanıyor.
192 GB HBM3e bellek
Bellek söz konusu olduğunda Nvidia elinden geleni yapıyor ve sekiz adet 24 GB hızlı HBM3e bellek yığınıyla başlıyor. Toplamda 192 GB'a kadar ve 8 TB/s aktarım hızı bir araya geliyor. Bellek boyutu açısından şirket, AMD'nin MI300X'iyle aynı seviyede ancak B100'ün aktarım hızı yaklaşık yüzde 50 daha yüksek; yükseltme de gerekliydi çünkü Nvidia'nın H100 nesli, özellikle bellek boyutu söz konusu olduğunda geride kalıyordu. Sekiz yığınla, teorik olarak daha sonra 36 GB'lık yığına geçme ve kapasiteyi 288 GB'a çıkarma seçeneğiniz de vardır.
Sunumda iç yapıya dair sadece birkaç detay vardı. Nvidia yalnızca Tensor çekirdekleri için performans verilerini verdi ancak geleneksel gölgelendirici hesaplayıcıları ve diğer birimler hakkında sessiz kaldı.
Tablodaki sunum için verim değerlerini seyrek olarak kullandık; yoğun nüfuslu matrislerde teraflop rakamları yarıya iner.
Veri merkezleri ve yapay zeka için hızlandırıcılar |