هوش مصنوعی در حال رخنه کردن به تمام سطوح تکنولوژی است. قبلاً که حرف از هوش مصنوعی میشد فکر همه به رباتهای چت منتهی میشد، اما اکنون مسئله چیز دیگری است. مسئله شراکت انویدیا و AWS (خدمات وب آمازون) بر سر هوش مصنوعی است.
اگرچه بسیاری از شرکتها در حال توسعه شتابدهندههایی برای بار کاری هوش مصنوعی هستند، پلتفرم CUDA انویدیا در حال حاضر از نظر پشتیبانی از هوش مصنوعی بیرقیب است. در نتیجه، تقاضا برای زیرساختهای هوش مصنوعی مبتنی بر انویدیا زیاد است. برای رفع این تقاضا، خدمات وب آمازون و انویدیا وارد یک شراکت استراتژیک شدند که بر اساس آن AWS زیرساخت مبتنی بر انویدیا را برای هوش مصنوعی مولد ارائه خواهد کرد. این دو شرکت در چندین پروژه کلیدی شریک خواهند شد.
آدام سلیپسکی، مدیر عامل AWS اظهار داشت: «امروز، ما کارت گرافیکهای Nvidia را برای حجمهای کاری از جمله گرافیک، بازی، محاسبات با کارایی بالا، یادگیری ماشینی و اکنون هوش مصنوعی مولد ارائه میکنیم. ما به نوآوری با Nvidia ادامه میدهیم تا AWS را به بهترین مکان برای اجرای پردازندههای گرافیکی تبدیل کنیم. با ترکیب سوپرتراشه های نسل بعدی Nvidia Grace Hopper با شبکه قدرتمند EFA AWS، خوشهبندی فوق مقیاس EC2 UltraClusters و قابلیتهای مجازیسازی پیشرفته Nitro این کار عملی خواهد شد.»
Project Ceiba سنگ بنای این همکاری است که هدف آن ایجاد سریعترین ابررایانه هوش مصنوعی گرافیکی جهان است که توسط AWS میزبانی شده و منحصراً برای Nvidia در دسترس است. این پروژه بلندپروازانه 16384 سوپرتراشه Nvidia GH200 را به کار خواهد بست که قدرت پردازش خیره کننده شصتوپنج AI ExaFLOPS را ارائه میدهد. این ابر رایانه برای پروژههای تحقیق و توسعه هوش مصنوعی انویدیا است.
Nvidia DGX Cloud میزبانی شده در AWS، یکی دیگر از اجزای اصلی این همکاری است. این پلتفرم آموزش هوش مصنوعی به عنوان یک سرویس، اولین نمونه تجاری موجود است که دستگاه GH200 NVL32 را با 19.5 ترابایت حافظه یکپارچه ترکیب میکند. این پلتفرم بزرگترین حافظه مشترک موجود در یک نمونه را در اختیار توسعهدهندگان قرار میدهد و به طور قابل توجهی روند آموزش هوش مصنوعی مولد پیشرفته و مدلهای زبانی بزرگ را تسریع میبخشد که به طور بالقوه به بیش از یک تریلیون پارامتر میرسد.
علاوه بر این، AWS اولین ابررایانه هوش مصنوعی مبتنی بر ابر (cloud-based) با سوپرتراشههای GH200 Grace Hopper Nvidia خواهد بود. این پیکربندی منحصربهفرد با استفاده از NVLink، سی و دو سوپرچیپ Grace Hopper را در هر نمونه به هم متصل میکند. این دستگاه تا هزاران سوپرتراشه GH200 و حافظه 4.5 ترابایتی HBM3e متصل به شبکه EFA آمازون خواهد داشت که از مجازیسازی پیشرفته (AWS Nitro System) و خوشهبندی فوق مقیاس (Amazon EC2 UltraClusters) پشتیبانی خواهد کرد.
این همکاری همچنین نمونه های جدید EC2 آمازون مبتنی بر انویدیا را معرفی میکند. این نمونهها دارای پردازندههای گرافیکی H200 Tensor Core با حداکثر 141 گیگابایت حافظه HBM3e برای بارهای کاری هوش مصنوعی مولد در مقیاس بزرگ و محاسبات با کارایی بالا (HPC) خواهند بود. علاوه بر این، نمونههای G6 و G6e که به ترتیب مجهز به پردازندههای گرافیکی NvidiaL4 و L40S هستند، برای طیف گستردهای از برنامهها از تنظیم دقیق هوش مصنوعی تا توسعه گردش کار سه بعدی طراحی شدهاند و از Nvidia Omniverse برای ایجاد برنامههای کاربردی سه بعدی با هوش مصنوعی استفاده میکنند.
در نهایت، این همکاری نرم افزار پیشرفته انویدیا را برای سرعت بخشیدن به توسعه هوش مصنوعی مولد در AWS معرفی خواهد کرد. این مورد شامل چارچوب NeMo LLM و NeMo Retriever برای ایجاد چتباتها و ابزارهای خلاصهسازی و BioNeMo برای تسریع فرآیندهای کشف دارو است. جنسن هوانگ، بنیانگذار و مدیر عامل انویدیا اظهار داشت: «هوش مصنوعی مولد حجم کاری ابری را تغییر میدهد و محاسبات سریع را در پایه تولید محتوای متنوع قرار میدهد. انویدیا و AWS با یک ماموریت مشترک برای ارائه مقرونبهصرفه هوش مصنوعی مولد پیشرفته به هر مشتری در کل بخش محاسباتی همکاری میکنند که شامل زیرساختهای هوش مصنوعی، کتابخانههای با عملکرد بالا، مدلهای پایه و خدمات هوش مصنوعی مولد میشود.»