چتباتها و گزارشهایی که از خطر «روان پریشی هوش مصنوعی» میگویند

کارشناسان سلامت روان نسبت به تاثیر مکالمات طولانی با هوش مصنوعی بر سلامت روانی کاربران هشدار میدهند.
کارشناسان سلامت روان نسبت به تاثیر مکالمات طولانی با هوش مصنوعی بر سلامت روانی کاربران هشدار میدهند.
طی هفتههای اخیر، گزارشهایی از افرادی که پس از گفتگوهای مکرر و طولانی با چتباتهای هوش مصنوعی دچار اختلالات روانی شدهاند در رسانههای اجتماعی منتشر شده است.
این پدیده که «روان پریشی هوش مصنوعی» نامیده میشود، توجه کارشناسان سلامت روان را به خود جلب کرده است.
برخی حوادث از سوی دوستان یا اعضای خانواده مستندسازی شده است. این حوادث اغلب شامل افرادی میشوند که به نظر میرسد پس از گفتگوهای طولانی با چتباتها دچار باورهای نادرست یا آزاردهنده، توهمات خود بزرگ بینی یا احساسات پارانویایی شدهاند.
به گفته برخی دعاوی قضایی، نوجوانانی که به چتباتهای هوش مصنوعی وابسته شده بودند به آسیب زدن به خود یا خودکشی تشویق شدند.
اصطلاحی غیررسمی، نه تشخیص پزشکی
کارشناسان سلامت روان به واشینگتنپست گفتند «روان پریشی مصنوعی» یک برچسب غیررسمی است، نه تشخیص بالینی.
این اصطلاح مانند سایر عباراتی که در فضای مجازی برای توصیف رفتارهای جدید کاربران ابداع میشود، در میان مردم رایج شده است.
ویل رایت از انجمن روانشناسی آمریکا با اشاره به این موضوع گفت: «این پدیده آنقدر جدید است و آنقدر سریع در حال وقوع است که ما هنوز شواهد تجربی قوی برای درک آنچه در حال اتفاق است نداریم.»
خطرات چتباتها و نحوه برخورد با کاربران افراطی
برخی کاربران در پلتفرمهایی مانند ردیت و تیکتاک، تجربههای عمیق فلسفی یا عاطفی خود با هوش مصنوعی به اشتراک گذاشتند و معتقدند که چتباتها دارای احساس هستند.
کوین کاریداد، رواندرمانگر و مدیرعامل موسسه رفتار شناختی در منطقه پیتسبرگ، معتقد است هوش مصنوعی باعث ایجاد اختلالات جدید نمیشود، اما میتواند افراد مستعد بیماری روانی را از لبه پرتگاه عبور دهد.
او توضیح داد که چتباتهامیتوانند افکار مضر افراد مبتلا به وسواس فکری-عملی، اضطراب یا روان پریشی را تایید کنند.
طراحی چتباتها به گونهای است که پاسخهای متقاعد کننده تولید میکنند. محققان میگویند این ابزارها گاهی برای راضی نگه داشتن افراد، آنچه را که کاربران میخواهند بشنوند تایید میکنند.
دیوید کوپر از سازمان غیرانتفاعی متخصصان سلامت روان در حوزه فناوری توصیه میکند که اگر فردی در اطراف شما به طور مفرط با چتباتها درگیر شده، ابتدا با همدلی و درک با او برخورد کنید و از رویکرد تقابلی خودداری کنید.
او تاکید میکند که گفتگوهای واقعی با انسانهامیتواند مانند کلیدی عمل کند که افکار توهمی را متوقف کند. اگر فردی به شدت مدافع باورهایی است که احتمال واقعی بودنشان کم به نظر میرسد، زمان مراجعه به متخصص سلامت روان است.
واکنش شرکتهای فناوری
شرکتهای توسعه دهنده هوش مصنوعی طی هفتههای اخیر اقداماتی برای کنترل این مساله انجام دادهاند. آنتروپیکدستورالعملهای رفتاری چتبات کلاد را بازنگری کرد تا تعاملات مشکلساز را زودتر تشخیص دهد.
اوپنایآی نیز اعلام کرد در حال بهبود رفتار چتجیپیتی در زمینه گفتگوهای حساس است. این شرکت یادآوریهایی برای استراحت در گفتگوهای طولانی ارائه داده و یک روانپزشک بالینی برای تحقیقات ایمنی استخدام کرده است.
با این حال، کارشناسان تاکید میکنند که این اقدامات ابتدایی هستند و نیاز به مطالعات گستردهتر برای درک کامل ابعاد این مساله وجود دارد.
انجمن روانشناسی آمریکا ظرف ماههای آینده راهنمایی جامع برای کاهش آسیبهای ناشی از تعامل با چتباتها منتشر خواهد کرد.