1. Anasayfa
  2. Teknoloji

AWS ve NVIDIA, büyük makine öğrenimi modellerini eğitmek ve üretici yapay zeka uygulamaları oluşturmak için yeni nesil altyapıya odaklanan bir iş birliği yapıyor


0


EC2 UltraClusters’da kullanılan yeni Amazon EC2 P5 bulut sunucuları, üretici yapay zeka eğitimini ve büyük ölçekte çıkarımı hızlandırmak için NVIDIA Hopper GPU’lardan yararlanacak halde optimize edildi

Bir Amazon şirketi (NASDAQ: AMZN) olan Amazon Web Services (AWS) ve NVIDIA (NASDAQ: NVDA) giderek karmaşıklaşan büyük lisan modellerini (LLM’ler) eğitmek ve üretici yapay zeka uygulamaları geliştirmek için optimize edilmiş, dünyanın en ölçeklenebilir, isteğe bağlı yapay zeka (AI) altyapısını oluşturmaya odaklanan çok taraflı bir iş birliği yaptıklarını duyurdu.

Bu iş birliği, NVIDIA H100 Tensor Core GPU’lar tarafından desteklenen yeni jenerasyon Amazon Elastic Compute Cloud (Amazon EC2) P5 bulut sunucularını ve AWS’in en büyük derin öğrenme modellerini oluşturmak ve eğitmek için 20 exaFLOP’a kadar süreç performansı sağlayacak son teknoloji ağ bağlantısını ve ölçeklenebilirliğini kapsıyor. P5 bulut sunucuları, 3.200 Gbps düşük gecikme müddetli, yüksek bant genişlikli ağ transfer suratı sağlayarak müşterilerin EC2 UltraClusters’da 20.000 H100 GPU’ya kadar ölçeklendirme yapmasına imkan tanıyan ve böylelikle yapay zeka için istek üzerine üstün bilgisayar sınıfı performansa erişebilmelerini sağlayan AWS’in ikinci kuşak Esnek Yapı Bağdaştırıcısı (EFA, Elastic Fabric Adapter) ağ irtibatından yararlanan birinci GPU tabanlı bulut sunucusu olacak. Bu teknolojiyi kullanmak için sabırsızlanan şirketler ortasında, eser geliştirmelerini hızlandırmak ve müşterilerine yeni empatik yapay zeka tabanlı tecrübeler sunmak isteyen dünya çapında tanınan şirketlerden biri olan Pinterest yer alıyor. 

AWS CEO’su Adam Selipsky konuyla ilgili olarak şunları söyledi: “AWS ve NVIDIA, AI/ML (yapay zeka/makine öğrenimi), grafik, oyun ve HPC (yüksek performanslı bilişim) üzere çeşitli uygulamalara yönelik, istek üzerine, büyük ölçekli, uygun maliyetli, GPU tabanlı tahliller sunmak için 12 yılı aşkın müddettir iş birliği yapıyor. Bugün birçok müşterinin makine tahsili eğitimi iş yüklerini 10.000’den fazla GPU’ya ölçeklendirdiği de göz önüne alınırsa, AWS her kuşakta ölçeklenebilirlik hudutlarını zorlayan GPU tabanlı bulut sunucuları sunma konusunda eşsiz bir tecrübeye sahip. İkinci kuşak EFA, müşterilerin P5 bulut sunucularını 20.000’den fazla NVIDIA H100 GPU’ya ölçeklendirmelerine imkan sağlayarak startup’lardan büyük şirketlere kadar geniş bir yelpazede müşterilere istek üzerine muhteşem bilgisayar yetenekleri sunabilecek.”

NVIDIA kurucusu ve CEO’su Jensen Huang ise, “Hızlandırılmış bilgi süreç ve yapay zeka tam vaktinde geldi. Hızlandırılmış bilgi süreç, işletmeler daha az kaynakla daha fazlasını yapmaya çalışırlarken maliyetleri ve gücü düşürmenin yanı sıra kademeli fonksiyonların hızlandırılmasını sağlar. Üretici yapay zeka, şirketleri, eserlerini ve iş modellerini tekrar tasarlamaya teşvik etti ve yıkılan değil yıkıcı olan olabileceklerini fark etmelerini sağladı. AWS, uzun müddettir tahlil ortağımız ve NVIDIA GPU’ları sunan birinci bulut hizmeti sağlayıcısı. Müşterilerimizin önlerindeki muazzam fırsatları kıymetlendirmek için hızlandırılmış bilgi süreç ve üretici yapay zekadan yararlanmalarına yardımcı olmak için uzmanlığımızı, ölçeğimizi ve erişimimizi birleştirmekten heyecan duyuyoruz,” halinde konuştu. 

Yeni Muhteşem Bilgi Süreç Kümeleri ve Sunucu Tasarımları

NVIDIA GPU’lar tarafından desteklenen yeni P5 bulut sunucuları, soru yanıtlama, kod oluşturma, görüntü ve manzara oluşturma, ses tanıma ve daha fazlası dahil olmak üzere en şiddetli ve bilgi süreç açısından ağır üretici yapay zeka uygulamalarının ardındaki giderek karmaşıklaşan LLM’leri ve manzara sürece modellerini eğitmek için ülkü olarak kullanılabiliyor. Yeni sunucu dizaynları ise, NVIDIA ve AWS mühendislik takımlarının termal, elektrik ve mekanik alanlardaki uzmanlığını kullanarak ölçeklenebilir ve verimli yapay zekayı hedefliyor ve AWS altyapısında güç verimliliğine odaklanarak geniş ölçekte yapay zeka sunmak için GPU’lardan yararlanan sunucular oluşturulmasını sağlıyor. GPU’lar çoklukla belli yapay zeka iş yükleri için CPU’lardan 20 kat daha fazla güç tasarrufludur ve H100, LLM’ler için CPU’lardan 300 kata kadar daha verimlidir.

Kaynak: (BYZHA) – Beyaz Haber Ajansı

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir