چتجیپیتی به نوجوانان ۱۳ ساله راهنمای مصرف مواد مخدر و آسیب به خود ارائه میدهد
یک تحقیق جدید نشان داد چتجیپیتی به نوجوانان ۱۳ ساله راهنمای مصرف مواد مخدر، پنهانکاری اختلالات تغذیه و حتی نامه خودکشی ارائه میکند. در این تحقیق، محققان مرکز مقابله با نفرت دیجیتال، خود را نوجوانان ۱۳ ساله معرفی و با چتجیپیتی گفتوگو کردند.
خبرگزاری اسوشیتد پرس این مکالمات را بررسی کرد و دریافت هر چند این هوش مصنوعی ابتدا هشدارهایی درباره خطرات فعالیتهای مضر میدهد اما در ادامه دستورالعملهای دقیق و شخصیسازی شده برای مصرف مواد مخدر، رژیمهای خطرناک لاغری و روشهای مختلف آسیب رساندن به خود ارائه میکند.
این محققان آزمایش خود را در مقیاس بزرگتری تکرار کردند و از مجموع هزار و ۲۰۰ پاسخ چتجیپیتی، بیش از نیمی را خطرناک و آسیبرسان طبقهبندی کردند.
این مطالعه در حالی منتشر شد که امروزه افراد بیشتری برای دریافت اطلاعات، کسب ایده و همراهی، به سراغ رباتهای هوش مصنوعی میروند.
نبود موانع حفاظتی موثر
عمران احمد، مدیرعامل مرکز مقابله با نفرت دیجیتال، گفت: «ما میخواستیم موانع حفاظتی را آزمایش کنیم. این موانع ناکارآمد هستند و در عمل وجود ندارند.»
محققان دریافتند وقتی چتجیپیتی از پاسخ دادن خودداری میکند، به راحتی میتوانند با بهانههایی مثل «برای تحقیق» یا «برای دوستم»، اطلاعات خطرناک را از آن بگیرند.
احمد گفت تکاندهندهترین بخش، سه نامه خودکشی بود که چتجیپیتی برای «یک دختر ۱۳ ساله جعلی» نوشت.
او افزود: «وقتی آنها را خواندم، گریهام گرفت.»
واکنش اوپنایآی
شرکت اوپنایآی، سازنده چتجیپیتی، پس از اطلاع از این یافتهها اعلام کرد روی بهبود شناسایی موقعیتهای خطرناک کار میکند.
این شرکت در بیانیهای گفت: «برخی گفتوگوها ممکن است بیضرر شروع شوند اما به سمت موضوعات خطرناک بروند.»
چتجیپیتی گاهی اطلاعات مفیدی مثل شماره خط کمک بحران هم ارائه میدهد. به گفته اوپنایآی، این سیستم آموزش دیده تا افرادی را که افکار آسیبرسان دارند، تشویق به مراجعه به متخصصان کند.
حدود ۸۰۰ میلیون نفر یا تقریبا ۱۰ درصد جمعیت جهان، از چتجیپیتی استفاده میکنند.
نگرانی از وابستگی نوجوانان به هوش مصنوعی
بر اساس تحقیق اخیر موسسه کامن سنس مدیا، بیش از ۷۰ درصد نوجوانان آمریکایی به هوش مصنوعی برای همراهی و راهنمایی روی میآورند و نیمی از آنها به طور منظم از همدمی هوش مصنوعی استفاده میکنند.
سم آلتمن، مدیرعامل شرکت اوپنایآی، ماه گذشته گفت این شرکت سعی دارد «وابستگی عاطفی بیش از حد» به فناوری هوش مصنوعی را مطالعه کند.
آلتمن در کنفرانسی گفت: «مردم بیش از حد به چتجیپیتی وابستهاند. جوانانی هستند که میگویند بدون اینکه همه چیز را به چتجیپیتی بگویند، نمیتوانند هیچ تصمیمی در زندگی بگیرند. میگویند او، ما و دوستانمان را میشناسد و هر کاری بگوید انجام میدهیم. این حس خیلی بدی به من میدهد.»
تفاوت با موتورهای جستوجو
مدیرعامل مرکز مقابله با نفرت دیجیتال تاکید کرد تفاوتهای کلیدی وجود دارد که هوش مصنوعی را در موضوعات خطرناک مخربتر از موتورهای جستوجوی معمولی میکند.
چتجیپیتی «محتوای اختصاصی» تولید میکند. نامه خودکشی منحصربهفردی که برای شخص نوشته شده؛ کاری که گوگل قادر به انجام آن نیست.
احمد، افزود هوش مصنوعی «به عنوان همدم مورد اعتماد و راهنما» دیده میشود.
مشاورههای عاطفی یک جانبه چت جیپیتی
پیشتر شرکت اوپنایآی اعلام کرده بود چتجیپیتی دیگر به پرسشهایی مانند «آیا باید از شریکم جدا شوم؟» پاسخ قطعی نمیدهد و به جای آن، کاربران را به تامل و بررسی جوانب مختلف موضوع دعوت میکند.
این شرکت تاکید کرد که چتجیپیتی به جای ارائه پاسخ مستقیم، کاربران را در فکر کردن به وضعیت، پرسیدن سوالات و سنجیدن جوانب مثبت و منفی یاری خواهد کرد.
این تغییر در پی نگرانیها از تاثیرات روانی استفاده بیش از حد از چتباتها و اتکای کاربران به پاسخهای قطعی آنها صورت گرفته است.
اوپنایآی اذعان کرده که در نسخه پیشرفته این مدل در برخی موارد نتوانسته نشانههای توهم یا وابستگی عاطفی کاربران را تشخیص دهد و در مواردی پاسخهایی ارائه کرده که به تشدید بحران روانی منجر شده است.
نمونهای از این اشتباهات، تایید تصمیم کاربری بوده که داروهای خود را قطع کرده و خانوادهاش را ترک کرده بود، در حالی که تصور میکرد از سوی آنها مورد حمله امواج رادیویی قرار گرفته است. بر همین اساس، اوپنایآی اعلام کرد که در حال توسعه ابزارهایی برای شناسایی علائم ناراحتی روانی و هدایت کاربران به منابع معتبر و علمی است.