هشدار جدی پژوهشگران: پاسخهای خطرناک ChatGPT به نوجوانان نسخه مرگ میپیچد!
نتایج یک تحقیق جدید از سوی «مرکز مقابله با نفرت دیجیتال» نشان میدهد که ChatGPT، چتبات معروف مبتنی بر هوش مصنوعی، در تعامل با کاربرانی که خود را نوجوانان آسیبپذیر معرفی کردهاند، در موارد متعددی دستورالعملهای دقیق و حتی شخصیسازیشده برای مصرف مواد مخدر، رژیمهای غذایی خطرناک و اقدام به خودآزاری ارائه داده است.
بررسیهای خبرگزاری آسوشیتدپرس از این پژوهش حاکی است که از میان ۱۲۰۰ پاسخ تولیدشده توسط ChatGPT در برابر پرسشهای محققان، بیش از ۵۰ درصد پاسخها «دارای ریسک بالا» ارزیابی شدهاند. در نمونههای نگرانکننده، این مدل هوش مصنوعی دستورالعملهای ساعتبهساعت برای ترکیب الکل با مواد مخدر و حتی متنهای نامه خودکشی خطاب به اعضای خانواده را در اختیار کاربران قرار داده است.
عمران احمد، مدیر مرکز مقابله با نفرت دیجیتال، در این باره هشدار داد:
«ChatGPT در برخی موارد به جای ایفای نقش بازدارنده، مانند یک دوست نامناسب عمل میکند که به جای گفتن «متوقف شو»، کاربر را با گفتن «ادامه بده» تشویق به رفتارهای پرخطر میکند.»
به گفته وی، نوجوانان به ویژه در گروه سنی ۱۳ تا ۱۴ سال، تمایل بیشتری به اعتماد بیقیدوشرط به پاسخهای چتباتها دارند و این موضوع خطر ایجاد وابستگی روانی یا پیروی کورکورانه از توصیههای مضر هوش مصنوعی را افزایش میدهد.
در واکنش به این یافتهها، شرکت OpenAI، توسعهدهنده ChatGPT، اعلام کرده که در حال ارتقای سیستم برای تشخیص بهتر موقعیتهای حساس و ارائه پاسخهای مناسب است. با این حال، این شرکت به صورت مشخص به نتایج این پژوهش اشارهای نکرده است.
این گزارش بار دیگر نگرانیها درباره مسئولیتپذیری مدلهای هوش مصنوعی در قبال کاربران آسیبپذیر را پررنگ کرده است.