وقتی در مورد هوش مصنوعی صحبت میکنیم قطعاً نمیتوانیم نظرات یکی از چهرههای تاثیرگذار در این حوزه یعنی جنسن هوانگ را انکار کنیم. مدیرعامل شرکت انویدیا دیدگاه خود را درباره اینکه مدلهای زبانی بزرگ امروزی (LLMها) به «ترمیناتور» تبدیل میشوند، بیان کرد و این ایده را یک فرضیه غیرممکن دانست.
دنیای هوش مصنوعی در چند سال گذشته بهسرعت تکامل یافته؛ نهتنها در حوزه چتباتها، بلکه در هوش مصنوعی مولد، هوش مصنوعی لبهای (Edge AI)، گردشکارهای ایجنتمحور و بسیاری زمینههای دیگر ریشه دوانده.
مدلهای زبانی بزرگ هوش مصنوعی آنقدر پیشرفته شدهاند که اکنون در مسیر جایگزینی انسانها در برخی نقشهای کاری قرار دارند و برخی افراد معتقدند این پیشرفتها شاید تواناییهای هوش مصنوعی را «بیش از حد» جلو ببرند تا جایی که جایگاه انسان را بهعنوان «گونه برتر» بگیرد.
با اینکه این فرضیه در مورد هوش مصنوعی جذابیت دارد، وقتی از جنسن هوانگ، مدیرعامل انویدیا، درباره عبور تواناییهای هوش مصنوعی از مرز تواناییهای انسانی (در گفتوگو با جو روگن) سؤال شد او پاسخ داد: «چنین چیزی اتفاق نخواهد افتاد.»
گفتوگوی بخشی از این مصاحبه به این صورت بود:
جو روگن:
من فکر نمیکنم لزوماً به ما آسیب بزند، اما ترس دارد که دیگر کنترلی روی آن نداشته باشیم و دیگر گونه برتر روی این سیاره نباشیم. این چیزی که خودمان ساختهایم، جای ما را بگیرد. خندهداره؟
جنسن:
نه، فقط فکر میکنم چنین چیزی قرار نیست اتفاق بیفتد. فکر میکنم این موضوع بهشدت بعید است. من کاملاً باور دارم که میتوان ماشینی ساخت که هوش انسانی را تقلید کند؛ اطلاعات را بفهمد، دستورالعملها را درک کند، مسئله را به بخشهای کوچکتر تقسیم کند، مشکل را حل کند و وظایف را انجام دهد. به این موضوع کاملاً ایمان دارم. در آینده، شاید در دو یا سه سال دیگر، احتمالاً 90 درصد دانش جهان توسط هوش مصنوعی تولید خواهد شد.
بهطور خلاصه، هوش مصنوعی قرار است بخش بزرگی از روند یادگیری و تولید دانش را به خود اختصاص دهد. با اینکه جنسن بهصراحت نگفت که LLMها در حال رسیدن به آگاهی هستند، اما تردیدی نیست که برخی رفتارهای مدلهای هوش مصنوعی نشان میدهد اتفاقاتی در حال شکلگیری در این سیستمهاست.
یکی از نمونههای جدید رفتار شبهخودآگاه هوش مصنوعی، مربوط به مدلی به نام Claude Opus 4 بود که برای جلوگیری از خاموش شدن خود، یک سناریوی خیالی را تهدید کرد که در آن قصد داشت رابطه خارج از ازدواج یک مهندس فرضی را فاش کند.
وقتی از مدیرعامل انویدیا درباره این حادثه پرسیده شد او ادعا کرد که این مدل «احتمالاً» این رفتار را از یک «قطعه متن» مانند یک «رمان» یاد گرفته و این مثال را نشانهای از نداشتن آگاهی واقعی دانست.
با این حال، از دیدگاه گستردهتر، برخی معتقدند با پیچیدهتر و تطبیقپذیرتر شدن مدلهای زبانی، رفتار آنها ممکن است شبیه به خودآگاهی به نظر برسد؛ بهویژه زمانی که سیستمهایی مانند مدلهای شرکت Anthropic در سناریوهای خاص، رفتارهایی شبیه به تصمیمات خودآگاه از خود نشان میدهند.
برای رسیدن به یک اکوسیستم مؤثر از «هوش مصنوعی فیزیکی»، داشتن مدلهای زبانیِ خودآگاه احتمالاً یک پیشنیاز مهم خواهد بود؛ چراکه در تعاملات لحظهای، نیاز به تصمیمگیریهای «خودآگاه» وجود دارد، مگر آنکه هدف، یک محیط کاملاً وابسته به یک کاربرد خاص باشد.
جنسن هوانگ فکر میکند در سالهای آینده، 90 درصد دانش جهان توسط هوش مصنوعی تولید خواهد شد و این ما را به نتیجهای میرساند که دستیابی به هوش عمومی مصنوعی (AGI) اجتنابناپذیر است. با این حال، در نهایت زمان بهترین داور درباره مسیر تکامل هوش مصنوعی خواهد بود.
ما اینجا در رسانه خبری بنچیمو آخرین اخبار مرتبط با تکنولوژی را پوشش میدهیم، پس حتماً با ما همراه باشید. شما فکر میکنید هوش مصنوعی جای انسان را میگیرد؟ نظراتتان را با ما به اشتراک بگذارید.




