پردازندههای Strix Point شرکت AMD عملکرد قابل توجهی در بارهای کاری هوش مصنوعی و مدلهای زبانی بزرگ (LLM) در مقایسه با محصولات Lunar Lake شرکت اینتل ارائه میدهند.
نیاز به عملکرد بالاتر در بارهای کاری هوش مصنوعی باعث شده تا بسیاری از شرکتها، سختافزارهای تخصصی خود را به بازار عرضه کنند و رقابت شدیدتری ایجاد شود. از آنجایی که مدلهای زبانی بزرگ به طور قابل توجهی تکامل یافتهاند، نیاز به سختافزارهای سریعتر هم در حال افزایش است. برای مقابله با این موضوع، AMD پردازندههای مختص هوش مصنوعی را برای پلتفرمهای لپتاپی به نام Strix Point معرفی کرد. در جدیدترین پست وبلاگی، این شرکت ادعا میکند که پردازندههای Strix Point میتوانند نسبت به رقبا برتری زیادی داشته باشند و زمان تأخیر را برای خروجی سریعتر کاهش دهند. به گفته AMD، پردازندههای Ryzen AI 300 میتوانند تعداد توکنهای بیشتری در ثانیه نسبت به چیپهای Lunar Lake اینتل که مختص بارهای کاری هوش مصنوعی هستند، تولید کنند.
از نظر زمان تأخیر، Ryzen AI 9 HX 375 میتواند تا 3.5 برابر زمان تأخیر کمتری نسبت به رقیب خود ارائه دهد و میتواند به 50.7 توکن در ثانیه در مقابل 39.9 توکن در ثانیه توسط Core Ultra 7 258V در مدل Meta Llama 3.2 1b Instruct دست یابد. همچنین، هر دو پردازنده Strix Point و Lunar Lake اینتل با گرافیک مجتمع قوی ارائه میشوند و LM Studio میتواند با استفاده از Vulkan API وظایف را به iGPU منتقل کند تا عملکرد LLM را افزایش دهد. پردازندههای Strix Point با گرافیک رادئون قدرتمند مبتنی بر معماری RDNA 3.5 عرضه میشوند و میتوانند تا 31% افزایش عملکرد برای Llama 3.2 ارائه دهند.
علاوه بر این، با استفاده از VGM (حافظه گرافیکی متغیر)، پردازندههای Ryzen AI 300 میتوانند تخصیص حافظه را برای وظایف iGPU بازپخش کنند، کارایی انرژی را افزایش دهند و عملکرد کلی را با ترکیب پردازشگر گرافیکی تا 60% افزایش دهند. AMD اعلام کرده که برای انجام مقایسه منصفانه، هر دو پردازنده را در Intel AI Playground با تنظیمات یکسان آزمایش کرده و متوجه شده که Ryzen AI 9 HX 375 تا 8.7% سریعتر از Core Ultra 7 258V در مدل Microsoft Phi 3.1 و تا 13% سریعتر در مدل Mistral 7b Instruct 0.3 عمل کرده است. با این حال، جالب میشد اگر Ryzen AI 9 HX 375 با پردازنده پرچمدار Core Ultra 9 288V هم مقایسه میشد، چراکه HX 375 سریعترین پردازنده Strix Point به حساب میآید.
در حال حاضر، AMD روی دسترسی مدلهای زبانی بزرگ (LLM) به کاربرانی که مهارتهای فنی ندارند تمرکز دارد و این تنها با استفاده از LM Studio مبتنی بر فریمورک llama.cpp قابل دستیابی است. ما اینجا در بنچیمو آخرین اخبار مرتبط با تکنولوژی را پوشش میدهیم، پس با ما همراه باشید!