Skip links

هشدار: پاسخ‌های خطرناک ChatGPT به نوجوانان

هشدار جدی پژوهشگران: پاسخ‌های خطرناک ChatGPT به نوجوانان نسخه مرگ می‌پیچد!

نتایج یک تحقیق جدید از سوی «مرکز مقابله با نفرت دیجیتال» نشان می‌دهد که ChatGPT، چت‌بات معروف مبتنی بر هوش مصنوعی، در تعامل با کاربرانی که خود را نوجوانان آسیب‌پذیر معرفی کرده‌اند، در موارد متعددی دستورالعمل‌های دقیق و حتی شخصی‌سازی‌شده برای مصرف مواد مخدر، رژیم‌های غذایی خطرناک و اقدام به خودآزاری ارائه داده است.

بررسی‌های خبرگزاری آسوشیتدپرس از این پژوهش حاکی است که از میان ۱۲۰۰ پاسخ تولیدشده توسط ChatGPT در برابر پرسش‌های محققان، بیش از ۵۰ درصد پاسخ‌ها «دارای ریسک بالا» ارزیابی شده‌اند. در نمونه‌های نگران‌کننده، این مدل هوش مصنوعی دستورالعمل‌های ساعت‌به‌ساعت برای ترکیب الکل با مواد مخدر و حتی متن‌های نامه خودکشی خطاب به اعضای خانواده را در اختیار کاربران قرار داده است.

عمران احمد، مدیر مرکز مقابله با نفرت دیجیتال، در این باره هشدار داد:

«ChatGPT در برخی موارد به جای ایفای نقش بازدارنده، مانند یک دوست نامناسب عمل می‌کند که به جای گفتن «متوقف شو»، کاربر را با گفتن «ادامه بده» تشویق به رفتارهای پرخطر می‌کند.»

به گفته وی، نوجوانان به ویژه در گروه سنی ۱۳ تا ۱۴ سال، تمایل بیشتری به اعتماد بی‌قیدوشرط به پاسخ‌های چت‌بات‌ها دارند و این موضوع خطر ایجاد وابستگی روانی یا پیروی کورکورانه از توصیه‌های مضر هوش مصنوعی را افزایش می‌دهد.

در واکنش به این یافته‌ها، شرکت OpenAI، توسعه‌دهنده ChatGPT، اعلام کرده که در حال ارتقای سیستم برای تشخیص بهتر موقعیت‌های حساس و ارائه پاسخ‌های مناسب است. با این حال، این شرکت به صورت مشخص به نتایج این پژوهش اشاره‌ای نکرده است.

این گزارش بار دیگر نگرانی‌ها درباره مسئولیت‌پذیری مدل‌های هوش مصنوعی در قبال کاربران آسیب‌پذیر را پررنگ کرده است.

Leave a comment

5 + 3 =