همکاری انویدیا و خدمات وب آمازون برای ساخت ابررایانه مبتنی بر هوش مصنوعی و چندین مورد دیگر

هوش مصنوعی در حال رخنه کردن به تمام سطوح تکنولوژی است. قبلاً که حرف از هوش مصنوعی می‌شد فکر همه به ربات‌های چت منتهی می‌شد، اما اکنون مسئله چیز دیگری است. مسئله شراکت انویدیا و AWS (خدمات وب آمازون) بر سر هوش مصنوعی است.

اگرچه بسیاری از شرکت‌ها در حال توسعه شتاب‌دهنده‌هایی برای بار کاری هوش مصنوعی هستند، پلتفرم CUDA انویدیا در حال حاضر از نظر پشتیبانی از هوش مصنوعی بی‌رقیب است. در نتیجه، تقاضا برای زیرساخت‌های هوش مصنوعی مبتنی بر انویدیا زیاد است. برای رفع این تقاضا، خدمات وب آمازون و انویدیا وارد یک شراکت استراتژیک شدند که بر اساس آن AWS زیرساخت مبتنی بر انویدیا را برای هوش مصنوعی مولد ارائه خواهد کرد. این دو شرکت در چندین پروژه کلیدی شریک خواهند شد.

آدام سلیپسکی، مدیر عامل AWS اظهار داشت: «امروز، ما کارت گرافیک‌های Nvidia را برای حجم‌های کاری از جمله گرافیک، بازی، محاسبات با کارایی بالا، یادگیری ماشینی و اکنون هوش مصنوعی مولد ارائه می‌کنیم. ما به نوآوری با Nvidia ادامه می‌دهیم تا AWS را به بهترین مکان برای اجرای پردازنده‌های گرافیکی تبدیل کنیم. با ترکیب سوپرتراشه های نسل بعدی Nvidia Grace Hopper با شبکه قدرتمند EFA AWS، خوشه‌بندی فوق مقیاس EC2 UltraClusters و قابلیت‌های مجازی‌سازی پیشرفته Nitro این کار عملی خواهد شد.»

Project Ceiba سنگ بنای این همکاری است که هدف آن ایجاد سریع‌ترین ابررایانه هوش مصنوعی گرافیکی جهان است که توسط AWS میزبانی شده و منحصراً برای Nvidia در دسترس است. این پروژه بلندپروازانه 16384 سوپرتراشه Nvidia GH200 را به کار خواهد بست که قدرت پردازش خیره کننده شصت‌وپنج AI ExaFLOPS را ارائه می‌دهد. این ابر رایانه برای پروژه‌های تحقیق و توسعه هوش مصنوعی انویدیا است.

Nvidia DGX Cloud میزبانی شده در AWS، یکی دیگر از اجزای اصلی این همکاری است. این پلتفرم آموزش هوش مصنوعی به عنوان یک سرویس، اولین نمونه تجاری موجود است که دستگاه GH200 NVL32 را با 19.5 ترابایت حافظه یکپارچه ترکیب می‌کند. این پلتفرم بزرگ‌ترین حافظه مشترک موجود در یک نمونه را در اختیار توسعه‌دهندگان قرار می‌دهد و به طور قابل توجهی روند آموزش هوش مصنوعی مولد پیشرفته و مدل‌های زبانی بزرگ را تسریع می‌بخشد که به طور بالقوه به بیش از یک تریلیون پارامتر می‌رسد.

علاوه بر این، AWS اولین ابررایانه هوش مصنوعی مبتنی بر ابر (cloud-based) با سوپرتراشه‌های GH200 Grace Hopper Nvidia خواهد بود. این پیکربندی منحصربه‌فرد با استفاده از NVLink، سی و دو سوپرچیپ Grace Hopper را در هر نمونه به هم متصل می‌کند. این دستگاه تا هزاران سوپرتراشه GH200 و حافظه 4.5 ترابایتی HBM3e متصل به شبکه EFA آمازون خواهد داشت که از مجازی‌سازی پیشرفته (AWS Nitro System) و خوشه‌بندی فوق مقیاس (Amazon EC2 UltraClusters) پشتیبانی خواهد کرد.

این همکاری همچنین نمونه های جدید EC2 آمازون مبتنی بر انویدیا را معرفی می‌کند. این نمونه‌ها دارای پردازنده‌های گرافیکی H200 Tensor Core با حداکثر 141 گیگابایت حافظه HBM3e برای بارهای کاری هوش مصنوعی مولد در مقیاس بزرگ و محاسبات با کارایی بالا (HPC) خواهند بود. علاوه بر این، نمونه‌های G6 و G6e که به ترتیب مجهز به پردازنده‌های گرافیکی NvidiaL4 و L40S هستند، برای طیف گسترده‌ای از برنامه‌ها از تنظیم دقیق هوش مصنوعی تا توسعه گردش کار سه بعدی طراحی شده‌اند و از Nvidia Omniverse برای ایجاد برنامه‌های کاربردی سه بعدی با هوش مصنوعی استفاده می‌کنند.

در نهایت، این همکاری نرم افزار پیشرفته انویدیا را برای سرعت بخشیدن به توسعه هوش مصنوعی مولد در AWS معرفی خواهد کرد. این مورد شامل چارچوب NeMo LLM و NeMo Retriever برای ایجاد چت‌بات‌ها و ابزارهای خلاصه‌سازی و BioNeMo برای تسریع فرآیندهای کشف دارو است. جنسن هوانگ، بنیانگذار و مدیر عامل انویدیا اظهار داشت: «هوش مصنوعی مولد حجم کاری ابری را تغییر می‌دهد و محاسبات سریع را در پایه تولید محتوای متنوع قرار می‌دهد. انویدیا و AWS با یک ماموریت مشترک برای ارائه مقرون‌به‌صرفه هوش مصنوعی مولد پیشرفته به هر مشتری در کل بخش محاسباتی همکاری می‌کنند که شامل زیرساخت‌های هوش مصنوعی، کتابخانه‌های با عملکرد بالا، مدل‌های پایه و خدمات هوش مصنوعی مولد می‌شود.»

پست های مرتبط

گوشی iPhone 17 Slim حتی از iPhone 17 Pro Max هم گران‌تر خواهد بود !

ماده مسی زیر لوگوی اپل برای دفع گرما در آزمایش تخریب آیپد پرو جدید مشاهده شد

فریم گوشی گلکسی اس 25 اولترا احتمالاً از تیتانیوم گرید 2 یا 3 ساخته شود