AMD'nin önümüzdeki MI325X işlemcisi için pazar beklentilerini yükseltmeye çalıştığı görülüyor. Bu çipler özellikle veri merkezleri için tasarlandı ve yoğun yapay zeka iş yüklerini kaldırabiliyor. Bloomberg'in yeni haberine göre AMD CEO'su Lisa Su, bu çiplerin Nvidia'nın popüler H100 işlemcilerinden daha iyi performans göstereceğini iddia etti.
MI325X SoC'nin öne çıkan özelliklerinden biri de selefi MI300X'e kıyasla bellek kapasitesini 1,8 kat artıran 256GB HBM3E belleğin kullanılması. Ayrıca HBM3E belleğin saniyede 6 terabayt (TB/s) gibi etkileyici bir bant genişliği bulunuyor; bu da yapay zeka görevlerinde yer alan büyük veri kümelerinin ve karmaşık hesaplamaların işlenmesi için kritik önem taşıyor.
Nvidia'nın H100 işlemcileri 2022 yılında piyasaya sürüldü, dolayısıyla 3TB/s desteklenen bant genişliğine sahip daha yeni HBM3E yerine "sadece" HBM3 bellekle geliyorlar. Ancak “Team Green”in Blackwell mimarisini temel alan yaklaşan işlemcinin de yaklaşık 13,8 TB/s maksimum bant genişliğine sahip 288 GB HBM3E belleği kullanması bekleniyor.

Son zamanlarda gelişmiş SoC'lere olan talep giderek artıyor; dünyadaki birçok büyük teknoloji şirketi yeni ve daha gelişmiş yapay zeka modelleri yetiştirmeye çalışıyor. Geçtiğimiz hafta Nvidia ve Foxconn, Blackwell mimarisine dayalı GB200 süper çipini üretecek dünyanın en büyük tesisini inşa etmek için ortak bir proje başlattıklarını duyurdu.
Nvidia, bu yongaların numunelerini ortaklarına göndermeye bile başladı ve yıl sonuna kadar milyarlarca dolar gelir elde etmesi bekleniyor. Şirketin hisselerinin hızla yükselerek Apple'ın ardından dünyanın en değerli ikinci şirketi haline gelmesinin nedeni de budur.
Diğer yandan AMD de bu büyüyen pazardan pay kapmaya çalışıyor. "Team Red", yeni MI325X işlemcilerinin ne zaman piyasaya sürüleceğini açıklamadı ancak seri üretimin 2024'ün sonlarında başlaması bekleniyor. AMD, yapay zeka çip pazarının 2028 yılına kadar 500 milyar dolara ulaşmasının beklendiğini söylüyor.