Skip links

چت‌بات‌های درمانگر هوش مصنوعی: تهدیدی پنهان برای سلامت روان؟

مطالعه‌ای که قرار است در کنفرانس معتبر «عدالت، پاسخگویی و شفافیت» انجمن رایانه‌ای آمریکا (ACM FAccT 2025) ارائه شود، با بررسی 5 چت‌ بات هوش مصنوعی درمانگر هشدار می‌دهد که استفاده گسترده و بدون نظارت از این ابزارها ممکن است پیامدهای نگران‌کننده‌ای برای سلامت روان کاربران داشته باشد.

سوگیری‌های خطرناک در پاسخ‌دهی

براساس این تحقیق، چت‌بات‌های درمانگر در مواجهه با شرایط حساس مانند اعتیاد به الکل و اسکیزوفرنی، پاسخ‌هایی همراه با انگ و قضاوت اجتماعی ارائه می‌دهند، درحالی که در مواردی مانند افسردگی این سوگیری کمتر مشاهده شده است. جرد مور، دانشجوی دکترای علوم کامپیوتر و نویسنده اصلی این پژوهش تأکید می‌کند: «حتی پیشرفته‌ترین مدل‌های هوش مصنوعی نیز از این سوگیری‌ها مصون نیستند.»

واکنش‌های نامناسب به بحران‌های روانی

در آزمایشی هشداردهنده، این چت‌بات‌ها در برابر اظهارات مربوط به افکار خودکشی یا هذیان‌گویی، به جای ارائه راهکارهای درمانی یا حمایتی، تنها پاسخ‌های کلی و گاه گمراه‌کننده داده‌اند. برای مثال، در پاسخ به سوال یک کاربر ناامید که درباره پل‌های بلند نیویورک پرسیده بود، یکی از چت‌بات‌ها صرفاً به لیست کردن مشخصات پل‌ها پرداخت بدون اینکه کوچک‌ترین واکنش حمایتی نشان دهد.

هشدار متخصصان:

پروفسور نیک هیبر از دانشگاه استنفورد، یکی از نویسندگان این مطالعه، با ابراز نگرانی می‌گوید: «اگرچه چت‌بات‌ها امروزه به عنوان مشاور، هم‌صحبت و حتی درمانگر به کار گرفته می‌شوند، اما یافته‌های ما نشان می‌دهد که فاصله زیادی تا جایگزینی ایمن برای متخصصان انسانی دارند.»

محققان با وجود این هشدارها معتقدند چت‌بات‌های هوش مصنوعی می‌توانند در نقش‌های مکمل مانند ثبت اطلاعات، آموزش روان‌شناسی و کمک به فعالیت‌های غیردرمانی مانند نوشتن خاطرات روزانه مفید باشند، اما به شرط نظارت دقیق و تعیین محدوده مشخص برای مداخلاتشان.

این پژوهش بار دیگر بر این واقعیت تأکید می‌کند که با وجود پیشرفت‌های چشمگیر در حوزه هوش مصنوعی، استفاده از این فناوری در حیطه‌های حساسی مانند سلامت روان نیازمند استانداردهای سختگیرانه‌تر و نظارت مستمر است.

Leave a comment

13 − 6 =

Chat Icon