Categories: Teknoloji

AWS ve NVIDIA, büyük makine öğrenimi modellerini eğitmek ve üretici yapay zeka uygulamaları oluşturmak için yeni nesil altyapıya odaklanan bir iş birliği yapıyor

EC2 UltraClusters’da kullanılan yeni Amazon EC2 P5 bulut sunucuları, üretici yapay zeka eğitimini ve büyük ölçekte çıkarımı hızlandırmak için NVIDIA Hopper GPU’lardan yararlanacak şekilde optimize edildi

Bir Amazon şirketi (NASDAQ: AMZN) olan Amazon Web Services (AWS) ve NVIDIA (NASDAQ: NVDA) giderek karmaşıklaşan büyük dil modellerini (LLM’ler) eğitmek ve üretici yapay zeka uygulamaları geliştirmek için optimize edilmiş, dünyanın en ölçeklenebilir, isteğe bağlı yapay zeka (AI) altyapısını oluşturmaya odaklanan çok yönlü bir iş birliği yaptıklarını duyurdu.

Bu iş birliği, NVIDIA H100 Tensor Core GPU’lar tarafından desteklenen yeni nesil Amazon Elastic Compute Cloud (Amazon EC2) P5 bulut sunucularını ve AWS’in en büyük derin öğrenme modellerini oluşturmak ve eğitmek için 20 exaFLOP’a kadar işlem performansı sağlayacak son teknoloji ağ iletişimini ve ölçeklenebilirliğini kapsıyor. P5 bulut sunucuları, 3.200 Gbps düşük gecikme süreli, yüksek bant genişlikli ağ aktarım hızı sağlayarak müşterilerin EC2 UltraClusters’da 20.000 H100 GPU’ya kadar ölçeklendirme yapmasına olanak tanıyan ve böylece yapay zeka için istek üzerine süper bilgisayar sınıfı performansa erişebilmelerini sağlayan AWS’in ikinci nesil Esnek Yapı Bağdaştırıcısı (EFA, Elastic Fabric Adapter) ağ iletişiminden yararlanan ilk GPU tabanlı bulut sunucusu olacak. Bu teknolojiyi kullanmak için sabırsızlanan şirketler arasında, ürün geliştirmelerini hızlandırmak ve müşterilerine yeni empatik yapay zeka tabanlı deneyimler sunmak isteyen dünya çapında tanınan şirketlerden biri olan Pinterest yer alıyor. 

AWS CEO’su Adam Selipsky konuyla ilgili olarak şunları söyledi: “AWS ve NVIDIA, AI/ML (yapay zeka/makine öğrenimi), grafik, oyun ve HPC (yüksek performanslı bilişim) gibi çeşitli uygulamalara yönelik, istek üzerine, büyük ölçekli, uygun maliyetli, GPU tabanlı çözümler sunmak için 12 yılı aşkın süredir iş birliği yapıyor. Bugün birçok müşterinin makine öğrenimi eğitimi iş yüklerini 10.000’den fazla GPU’ya ölçeklendirdiği de göz önüne alınırsa, AWS her nesilde ölçeklenebilirlik sınırlarını zorlayan GPU tabanlı bulut sunucuları sunma konusunda benzersiz bir deneyime sahip. İkinci nesil EFA, müşterilerin P5 bulut sunucularını 20.000’den fazla NVIDIA H100 GPU’ya ölçeklendirmelerine olanak sağlayarak startup’lardan büyük şirketlere kadar geniş bir yelpazede müşterilere istek üzerine süper bilgisayar yetenekleri sunabilecek.”

NVIDIA kurucusu ve CEO’su Jensen Huang ise, “Hızlandırılmış bilgi işlem ve yapay zeka tam zamanında geldi. Hızlandırılmış bilgi işlem, işletmeler daha az kaynakla daha fazlasını yapmaya çalışırlarken maliyetleri ve gücü düşürmenin yanı sıra kademeli işlevlerin hızlandırılmasını sağlar. Üretici yapay zeka, şirketleri, ürünlerini ve iş modellerini yeniden tasarlamaya teşvik etti ve yıkılan değil yıkıcı olan olabileceklerini fark etmelerini sağladı. AWS, uzun süredir çözüm ortağımız ve NVIDIA GPU’ları sunan ilk bulut hizmeti sağlayıcısı. Müşterilerimizin önlerindeki muazzam fırsatları değerlendirmek için hızlandırılmış bilgi işlem ve üretici yapay zekadan yararlanmalarına yardımcı olmak için uzmanlığımızı, ölçeğimizi ve erişimimizi birleştirmekten heyecan duyuyoruz,” şeklinde konuştu. 

Yeni Süper Bilgi İşlem Kümeleri ve Sunucu Tasarımları

NVIDIA GPU’lar tarafından desteklenen yeni P5 bulut sunucuları, soru yanıtlama, kod oluşturma, video ve görüntü oluşturma, ses tanıma ve daha fazlası dahil olmak üzere en zorlu ve bilgi işlem açısından yoğun üretici yapay zeka uygulamalarının arkasındaki giderek karmaşıklaşan LLM’leri ve görüntü işleme modellerini eğitmek için ideal olarak kullanılabiliyor. Yeni sunucu tasarımları ise, NVIDIA ve AWS mühendislik ekiplerinin termal, elektrik ve mekanik alanlardaki uzmanlığını kullanarak ölçeklenebilir ve verimli yapay zekayı hedefliyor ve AWS altyapısında enerji verimliliğine odaklanarak geniş ölçekte yapay zeka sunmak için GPU’lardan yararlanan sunucular oluşturulmasını sağlıyor. GPU’lar genellikle belirli yapay zeka iş yükleri için CPU’lardan 20 kat daha fazla enerji tasarrufludur ve H100, LLM’ler için CPU’lardan 300 kata kadar daha verimlidir.

Kaynak: (BYZHA) – Beyaz Haber Ajansı

Recent Posts

Taksim Otelleri

Taksim, İstanbul’un kültürel ve turistik merkezlerinden biri olarak bilinir ve bu sebeple pek çok konforlu…

9 saat ago

Yılbaşı İçin Hediye Fikirleri

Yeni yıl, sevdiklerimizle geçirdiğimiz anların kıymetini bir kez daha hissettiğimiz, yeni başlangıçlara adım attığımız özel…

1 gün ago

Marka ve İletişim Konferansı için geri sayım başladı!

Markalaşma ve iletişimde geleceği yakalayın: İlham veren konferans sizi bekliyor!

4 gün ago

Girişimcilerin Büyük Hataları Etkinliği 18 Aralık’ta İKÜ’de!

Girişimcilerin Büyük Hataları etkinliği 18 Aralık'ta İstanbul Kültür Üniversitesi'nde! Kaçırmayın!

6 gün ago

Fakı Mehmet Efendi, şube sayısını 42’ye çıkardığını duyurdu

Fakı Mehmet Efendi Baklavaları, şu anda İstanbul metro istasyonlarında hizmet verdiği şube sayısını 42’ye çıkardığını…

6 gün ago

Pendik Tıkanıklık Açma ve Su Kaçağı Tespiti

Evinizde veya iş yerinizde meydana gelen tıkanıklık sorunları, günlük yaşamınızı olumsuz etkileyebilir. Pendik tıkanıklık açma…

6 gün ago