در حال حاضر، کاربران به ابزارهای هوش مصنوعی برای مدیریت وظایف روزمره خود متکی شدهاند و حتی برخی از آنها از این پلتفرم برای دریافت مشاورههای پزشکی، شخصی و حرفهای استفاده میکنند.
این ابزار به نوعی نقش دستیار شخصی را پیدا کرده و برای بسیاری به راهحل اصلی مشکلات روزمره تبدیل شده است. گرچه شاید در نگاه اول استفاده از هوش مصنوعی برای دریافت مشاوره یا حتی «درمان» قابل قبول به نظر برسد، اما واقعیت این است که برخلاف مشاورههای حرفهای، هیچ تضمینی برای محرمانه ماندن اطلاعات وجود ندارد.
این مسئله زمانی بیشتر مورد توجه قرار گرفت که سم آلتمن، مدیرعامل شرکت OpenAI، درباره خطرات اتکای بیش از حد به دستیارهای هوش مصنوعی، بهویژه در زمینه مسائل عمیق و شخصی، هشدار داد.
با پیشرفت روزافزون قابلیتهای هوش مصنوعی و افزایش درک احساسی این ابزارها، بسیاری از افراد شروع به استفاده از چتباتها برای دریافت حمایتهای روانی و احساسی کردهاند. با این حال، بر خلاف رواندرمانی سنتی که حفظ حریم خصوصی بیمار را یک اصل اساسی میداند، در تعامل با چتباتها چنین سازوکار قانونیای وجود ندارد.
سم آلتمن هم در گفتوگویی با پادکست This Past Weekend with Theo Von که توسط TechCrunch بازتاب داده شد، نگرانی خود را در این زمینه مطرح کرد. او هشدار داد که نباید در مسائل عمیق شخصی به این ابزارها اعتماد کرد.
او در ادامه تأکید کرد که با وجود اینکه هوش مصنوعی اکنون میتواند گفتوگوهایی همدلانه و حمایتگرانه ارائه دهد و حس خصوصی بودن ایجاد کند، کاربران نباید از آن به عنوان جایگزین درمان واقعی یا حمایت احساسی حرفهای استفاده کنند، چراکه خطرات متعددی در پی دارد. این ابزار، همانند رواندرمانی حرفهای عمل نمیکند و تا زمانی که قوانین مشخص و محافظتهای حقوقی برای آن تعریف نشده باشد، نمیتوان به آن اعتماد کامل کرد.
آلتمن گفت:
مردم درباره خصوصیترین مسائل زندگیشان با ChatGPT صحبت میکنند. مخصوصاً جوانترها، از آن بهعنوان مشاور یا راهنمای زندگی استفاده میکنند. مشکلات عاطفی دارند و میپرسند «چیکار باید بکنم؟» اما اگر همین صحبتها را با یک رواندرمانگر یا وکیل یا پزشک داشته باشید، قانون از حریم خصوصیتان محافظت میکند. چیزی به نام «محرمانگی پزشک-بیمار» یا «مشاور-موکل» وجود دارد. ولی در مورد ChatGPT هنوز هیچ چارچوب قانونیای وجود ندارد.
به دلیل نبود چنین حمایتهای قانونی، آلتمن به کاربران هشدار میدهد که با احتیاط عمل کنند؛ چراکه ممکن است عواقب قانونی جدی در پی داشته باشد. برای مثال، اگر فردی درگیر پروندهای حقوقی شود و دادگاه از OpenAI بخواهد محتوای گفتوگوهای او را ارائه دهد، این شرکت موظف خواهد بود اطلاعات شخصی را بدون هیچ حفاظتی تحویل دهد.
آلتمن در پایان اشاره کرد که هوش مصنوعی هم باید از همان حقوق مربوط به حفظ حریم خصوصی بهرهمند شود، اما پیشرفت سریع این فناوری باعث شده قوانین مربوطه نتوانند همگام با آن توسعه یابند.
ما اینجا در رسانه خبری بنچیمو آخرین اخبار مرتبط با تکنولوژی را پوشش میدهیم، پس حتماً با ما همراه باشید. آیا شما هم از ChatGPT به عنوان مشاور استفاده میکنید؟ نظراتتان را با ما به اشتراک بگذارید.




