کیث ساکاتا، روانپزشک دانشگاه کالیفرنیا که قبلاً درباره افزایش موارد «روانپریشی ناشی از هوش مصنوعی» هشدار داده بود، اخیراً توصیههایی برای پیشگیری از این اختلال مطرح کرده است.
وی اوایل این هفته در شبکههای اجتماعی نوشت که تاکنون دستکم دوازده بیمار را دیده که پس از تجربه نوعی روانپریشی مرتبط با استفاده از هوش مصنوعی، در بیمارستان بستری شدهاند. به گفته او، هرچند هوش مصنوعی بهطور مستقیم عامل بروز این اختلال نیست، اما نقشی کلیدی دارد.
«روانپریشی ناشی از هوش مصنوعی» (AI psychosis) هنوز یک اصطلاح رسمی پزشکی محسوب نمیشود، اما به حالتی گفته میشود که کاربر چتبات فراموش میکند در حال گفتگو با یک نرمافزار است و تصور میکند طرف مقابل انسانی واقعی هست. این وضعیت در سال 2025 به حوادث تلخی منجر شد؛ از جمله خودکشی یک مرد در فلوریدا که پس از باور به اینکه کارکنان OpenAI معشوقه مجازی او با نام ژولیت را کشتهاند، دست به اقدام مرگبار زد.
ساکاتا در نوشتههای خود هشدار داد که افراد به دلیل استفاده از هوش مصنوعی در حال از دست دادن ارتباط با واقعیت هستند و این مسئله به بستریشدن آنها منجر میشود. او توضیح داد که هوش مصنوعی بهویژه برای کسانی که آسیبپذیری روانی دارند، باعث میشود نتوانند باورهای خود را با واقعیت تطبیق دهند و همین موضوع یک الگوی تکرارشونده و خودتقویتکننده ایجاد میکند؛ الگویی که در آن فرد دیگر قادر به درک غیرواقعی بودن چتباتی که با او صحبت میکند نیست.
پس از این هشدار، ساکاتا در گفتگویی با شبکه TBPN راهکارهایی را برای توسعهدهندگان هوش مصنوعی پیشنهاد کرد تا از چنین پیامدهایی جلوگیری کنند. او همچنین توصیههایی برای محافظت از افراد آسیبپذیر در برابر گسست از واقعیت بر اثر استفاده از هوش مصنوعی ارائه داد.
وقتی از او پرسیدند چه توصیهای برای افرادی دارد که خودشان یا اطرافیانشان ممکن است در مسیر خطرناک استفاده از هوش مصنوعی قرار بگیرند، پاسخ داد:
فعلاً مهمترین موضوع این است که یک انسان در چرخه ارتباط وجود داشته باشد. روابط انسانی مانند سیستم ایمنی برای سلامت روان عمل میکنند؛ هم باعث بهبود حال ما میشوند و هم میتوانند هنگام بروز مشکل مداخله کنند. بنابراین اگر شما یا یکی از اعضای خانوادهتان احساس کردید چیزی درست پیش نمیرود، افکار عجیب یا پارانویا به وجود آمده یا حتی مسئلهای مرتبط با امنیت رخ داده، باید فوراً کمک بخواهید. اما مهمتر از همه این است که افراد آسیبپذیر باید دوباره به روابط انسانی وصل شوند. اگر یک انسان بین آنها و هوش مصنوعی قرار بگیرد، میتوان یک چرخه بازخوردی متفاوت ایجاد کرد که در این مرحله بسیار مؤثر خواهد بود. هنوز به مرحلهای نرسیدهایم که درمانگر شما بتواند یک هوش مصنوعی باشد.
گسترش و محبوبیت استفاده از هوش مصنوعی نگرانیهای امنیتی بسیاری ایجاد کرده است. گزارشهای متعدد نشان میدهد که شرکت مادر فیسبوک (متا) رویکردی سهلانگارانه در قبال چتباتهای هوش مصنوعی و رفتار نامناسب آنها با نوجوانان داشته است. در گزارشی که اخیراً خبرگزاری رویترز منتشر کرد، آمده که دستورالعملهای متا برای پاسخگویی چتباتهایش به کودکان بسیار ضعیف بوده و این شرکت تنها پس از طرح پرسشها و انتقادها ادعا کرده قوانین را بهروزرسانی کرده است.
ما اینجا در رسانه خبری بنچیمو آخرین اخبار مرتبط با تکنولوژی را پوشش میدهیم، پس حتماً با ما همراه باشید. شما در مورد روانپریشی ناشی از هوش مصنوعی چه نظری دارید؟ با ما به اشتراک بگذارید.