با پیشرفت و تحول مداوم ابزارهایی مانند ChatGPT، بسیاری از افراد به شکلی افراطی به آنها تکیه کردهاند. نه فقط برای سادهتر کردن کارها و زندگی روزمره، بلکه حتی در مسائل عمیقاً شخصی هم به آنها وابسته شدهاند.
گزارشهایی عجیب شنیدهایم؛ از پایان یافتن زندگی مشترک برخی افراد به دلیل کشف خیانت توسط این ابزار گرفته، تا استفاده از چتبات برای مشاوره روانشناسی همه درگیریم. اما اکنون، موردی نگرانکننده در آمریکا خبرساز شده: خطر اتکا به این دستیار هوش مصنوعی برای راهنماییهای مربوط به سلامت.
طبق گزارشها، یک مرد 60 ساله در نیویورک پس از عمل کردن به توصیههای غذایی ChatGPT دچار بیماریای بسیار نادر و خطرناک شد.
در حالیکه قبلاً بارها درباره خطر وابستگی بیش از حد به هوش مصنوعی هشدار داده شده بود، این بار یک نشریه پزشکی معتبر در آمریکا هشدار تازهای داده: از ChatGPT برای مشاوره پزشکی استفاده نکنید. این هشدار پس از آن منتشر شد که مردی به علت پیروی از توصیه غذایی چتبات به شدت بیمار شد. این پرونده در نشریه علمی Internal Medicine منتشر شده و نشان میدهد چگونه آن مرد به بیماری نادری به نام «برومیسم» یا «مسمومیت با برومید» دچار گردید.
ماجرا از آنجا آغاز شد که این مرد به پیشنهاد ChatGPT نمک معمولی (سدیم کلرید) را با «سدیم برومید» جایگزین کرد؛ مادهای که آن را از اینترنت تهیه کرده بود. او سه ماه پیاپی این ماده را به جای نمک مصرف کرد، با این تصور که گزینهای سالمتر است. اما نتیجه فاجعهبار بود: مرد به علائمی مانند بدبینی شدید، بیخوابی، روانپریشی و مشکلات جسمی جدی دچار شد، تا جایی که گمان میکرد همسایهاش قصد مسموم کردن او را دارد.
در نهایت او به بیمارستان منتقل شد و پزشکان «برومیسم» را تشخیص دادند؛ یعنی واکنش سمی ناشی از مصرف بیش از حد برومید. پس از توقف مصرف این ماده و آغاز درمان، حال او بهبود یافت. امروزه این بیماری بهندرت دیده میشود، چراکه دسترسی به نمکهای برومیدی بسیار محدود است.
این تجربه همچنین زنگ خطری برای چگونگی استفاده از هوش مصنوعی در زمینههای حساس مانند سلامت است. پژوهشگران بررسی کردند که آیا ChatGPT واقعاً چنین پاسخی میدهد یا نه و مشخص شد که این مدل واقعاً برومید را بهعنوان جایگزین کلرید پیشنهاد میکند و هیچ هشداری درباره سمیت آن ارائه نمیکند. همین موضوع نگرانیها را جدیتر میکند. چتباتها پزشک یا متخصص نیستند و نمیتوانند جای قضاوت و مسئولیتپذیری حرفهای را بگیرند. بنابراین نباید آنها را بهعنوان منبع تخصصی پزشکی در نظر گرفت.
از سوی دیگر، لازم است مدلهای هوش مصنوعی با سازوکارهای ایمنی بیشتری همراه باشند، بهویژه وقتی پای موضوعات حساسی مانند سلامت در میان است. ما در عصری زندگی میکنیم که ابزارهای هوش مصنوعی به بخشی از زندگی روزمره بدل شدهاند؛ اما باید به یاد داشت که کنجکاوی نباید جای احتیاط را بگیرد و هرگز نباید بالاتر از مشورت با متخصصان قرار گیرد.
ما اینجا در رسانه خبری بنچیمو آخرین اخبار مرتبط با تکنولوژی را پوشش میدهیم، پس حتماً با ما همراه باشید. شما در مورد استفاده از ChatGPT به عنوان پزشک چه نظری دارید؟ با ما به اشتراک بگذارید.