هوش مصنوعی در حال رخنه کردن به تمام سطوح تکنولوژی است. قبلاً که حرف از هوش مصنوعی میشد فکر همه به رباتهای چت منتهی میشد، اما اکنون مسئله چیز دیگری است. مسئله شراکت انویدیا و AWS (خدمات وب آمازون) بر سر هوش مصنوعی است.
اگرچه بسیاری از شرکتها در حال توسعه شتابدهندههایی برای بار کاری هوش مصنوعی هستند، پلتفرم CUDA انویدیا در حال حاضر از نظر پشتیبانی از هوش مصنوعی بیرقیب است. در نتیجه، تقاضا برای زیرساختهای هوش مصنوعی مبتنی بر انویدیا زیاد است. برای رفع این تقاضا، خدمات وب آمازون و انویدیا وارد یک شراکت استراتژیک شدند که بر اساس آن AWS زیرساخت مبتنی بر انویدیا را برای هوش مصنوعی مولد ارائه خواهد کرد. این دو شرکت در چندین پروژه کلیدی شریک خواهند شد.
آدام سلیپسکی، مدیر عامل AWS اظهار داشت: «امروز، ما کارت گرافیکهای Nvidia را برای حجمهای کاری از جمله گرافیک، بازی، محاسبات با کارایی بالا، یادگیری ماشینی و اکنون هوش مصنوعی مولد ارائه میکنیم. ما به نوآوری با Nvidia ادامه میدهیم تا AWS را به بهترین مکان برای اجرای پردازندههای گرافیکی تبدیل کنیم. با ترکیب سوپرتراشه های نسل بعدی Nvidia Grace Hopper با شبکه قدرتمند EFA AWS، خوشهبندی فوق مقیاس EC2 UltraClusters و قابلیتهای مجازیسازی پیشرفته Nitro این کار عملی خواهد شد.»
Nvidia DGX Cloud میزبانی شده در AWS، یکی دیگر از اجزای اصلی این همکاری است. این پلتفرم آموزش هوش مصنوعی به عنوان یک سرویس، اولین نمونه تجاری موجود است که دستگاه GH200 NVL32 را با 19.5 ترابایت حافظه یکپارچه ترکیب میکند. این پلتفرم بزرگترین حافظه مشترک موجود در یک نمونه را در اختیار توسعهدهندگان قرار میدهد و به طور قابل توجهی روند آموزش هوش مصنوعی مولد پیشرفته و مدلهای زبانی بزرگ را تسریع میبخشد که به طور بالقوه به بیش از یک تریلیون پارامتر میرسد.
علاوه بر این، AWS اولین ابررایانه هوش مصنوعی مبتنی بر ابر (cloud-based) با سوپرتراشههای GH200 Grace Hopper Nvidia خواهد بود. این پیکربندی منحصربهفرد با استفاده از NVLink، سی و دو سوپرچیپ Grace Hopper را در هر نمونه به هم متصل میکند. این دستگاه تا هزاران سوپرتراشه GH200 و حافظه 4.5 ترابایتی HBM3e متصل به شبکه EFA آمازون خواهد داشت که از مجازیسازی پیشرفته (AWS Nitro System) و خوشهبندی فوق مقیاس (Amazon EC2 UltraClusters) پشتیبانی خواهد کرد.
این همکاری همچنین نمونه های جدید EC2 آمازون مبتنی بر انویدیا را معرفی میکند. این نمونهها دارای پردازندههای گرافیکی H200 Tensor Core با حداکثر 141 گیگابایت حافظه HBM3e برای بارهای کاری هوش مصنوعی مولد در مقیاس بزرگ و محاسبات با کارایی بالا (HPC) خواهند بود. علاوه بر این، نمونههای G6 و G6e که به ترتیب مجهز به پردازندههای گرافیکی NvidiaL4 و L40S هستند، برای طیف گستردهای از برنامهها از تنظیم دقیق هوش مصنوعی تا توسعه گردش کار سه بعدی طراحی شدهاند و از Nvidia Omniverse برای ایجاد برنامههای کاربردی سه بعدی با هوش مصنوعی استفاده میکنند.