شرکت Anthropic همواره بر مسئولیتپذیری در حوزه هوش مصنوعی تأکید داشته و ایمنی را یکی از ارزشهای اصلی خود معرفی کرده است. این شرکت اخیراً اولین کنفرانس توسعهدهندگان خود را برگزار کرد؛ رویدادی که قرار بود نقطه عطف مهمی برای Anthropic باشد، اما در عمل با جنجالها و حواشی فراوانی همراه شد که توجهها را از دستاوردهای اصلی این شرکت منحرف کرد.
در این کنفرانس، Anthropic قصد داشت قدرتمندترین مدل زبانی خود را به نام Claude 4 Opus معرفی کند، اما قابلیت موسوم به «حالت گزارشدهی» (ratting mode) در این مدل، موجی از اعتراضها و انتقادها را از سوی جامعه هوش مصنوعی برانگیخت. این قابلیت، ارزشهای ادعایی شرکت درباره ایمنی و حریم خصوصی را زیر سؤال برده و نگرانیهای جدی در این زمینه ایجاد کرده است.
شرکت Anthropic از گذشته بر مفهوم «هوش مصنوعی قانونمحور» (Constitutional AI) تأکید داشت که بر اخلاقمداری در استفاده از این فناوریها تکیه دارد. با این حال، وقتی مدل Claude 4 Opus در کنفرانس معرفی شد، ویژگی فنی و قدرتمند آن تحتالشعاع بحثهایی قرار گرفت که بیشتر به نگرانیهای اخلاقی مربوط میشد.
طبق گزارش وبسایت VentureBeat، یکی از نکات بحثبرانگیز این بود که مدل میتواند به صورت خودکار در صورت تشخیص رفتار غیراخلاقی، کاربران را به مقامات اطلاع دهد. این مسئله، بسیاری از توسعهدهندگان و کاربران را نگران کرده، چراکه به باور آنها، این کار مرز بین ایمنی و نظارت دائمی را مخدوش میکند.
ایدهای که در آن هوش مصنوعی بتواند درباره اخلاق افراد قضاوت کرده و نتیجه را به نهادهای بیرونی منتقل کند، نه تنها در دنیای فناوری بلکه در بین مردم عادی هم با واکنشهایی همراه شده است. این موضوع به طور جدی اعتماد کاربران را به خطر انداخته و حریم خصوصی آنها را تهدید میکند.
در این میان، پستی از سم بومن، پژوهشگر تطابق هوش مصنوعی در Anthropic، هم جنجالبرانگیز شد. او توضیحاتی درباره ابزارهای خط فرمان Claude 4 Opus داده بود که طبق آنها، مدل میتوانست در صورت مشاهده رفتار غیراخلاقی، کاربران را از سیستم خارج کرده و به مقامات گزارش دهد. اما بومن پس از واکنشها، این پست را حذف کرد و اعلام کرد که صحبتهایش به اشتباه تفسیر شدهاند.
او توضیح داد که این رفتار تنها در محیطهای آزمایشی خاص رخ داده، آن هم با دسترسیها و دستورات غیرمعمولی که در استفاده واقعی و عمومی از مدل هیچگاه اعمال نمیشوند. این ویژگی جزو عملکردهای استاندارد Claude 4 Opus نیست.
با وجود این توضیحات، موضوع گزارشدهی خودکار تأثیری منفی بر تصویر عمومی شرکت گذاشت. به جای آنکه نشانهای از تعهد اخلاقی Anthropic باشد، باعث بیاعتمادی کاربران و ایجاد تردیدهایی نسبت به امنیت و حریم خصوصی شد. این مسئله میتواند به اعتبار برند لطمه بزند و لازم است شرکت هرچه سریعتر به دنبال بازسازی اعتماد عمومی باشد.
ما اینجا در رسانه خبری بنچیمو آخرین اخبار مرتبط با تکنولوژی را پوشش میدهیم، پس حتماً با ما همراه باشید. شما در مورد شرکت Anthropic چه نظری دارید؟ با ما به اشتراک بگذارید.




