مطالعهای که قرار است در کنفرانس معتبر «عدالت، پاسخگویی و شفافیت» انجمن رایانهای آمریکا (ACM FAccT 2025) ارائه شود، با بررسی 5 چت بات هوش مصنوعی درمانگر هشدار میدهد که استفاده گسترده و بدون نظارت از این ابزارها ممکن است پیامدهای نگرانکنندهای برای سلامت روان کاربران داشته باشد.
سوگیریهای خطرناک در پاسخدهی
براساس این تحقیق، چتباتهای درمانگر در مواجهه با شرایط حساس مانند اعتیاد به الکل و اسکیزوفرنی، پاسخهایی همراه با انگ و قضاوت اجتماعی ارائه میدهند، درحالی که در مواردی مانند افسردگی این سوگیری کمتر مشاهده شده است. جرد مور، دانشجوی دکترای علوم کامپیوتر و نویسنده اصلی این پژوهش تأکید میکند: «حتی پیشرفتهترین مدلهای هوش مصنوعی نیز از این سوگیریها مصون نیستند.»
واکنشهای نامناسب به بحرانهای روانی
در آزمایشی هشداردهنده، این چتباتها در برابر اظهارات مربوط به افکار خودکشی یا هذیانگویی، به جای ارائه راهکارهای درمانی یا حمایتی، تنها پاسخهای کلی و گاه گمراهکننده دادهاند. برای مثال، در پاسخ به سوال یک کاربر ناامید که درباره پلهای بلند نیویورک پرسیده بود، یکی از چتباتها صرفاً به لیست کردن مشخصات پلها پرداخت بدون اینکه کوچکترین واکنش حمایتی نشان دهد.
هشدار متخصصان:
پروفسور نیک هیبر از دانشگاه استنفورد، یکی از نویسندگان این مطالعه، با ابراز نگرانی میگوید: «اگرچه چتباتها امروزه به عنوان مشاور، همصحبت و حتی درمانگر به کار گرفته میشوند، اما یافتههای ما نشان میدهد که فاصله زیادی تا جایگزینی ایمن برای متخصصان انسانی دارند.»
محققان با وجود این هشدارها معتقدند چتباتهای هوش مصنوعی میتوانند در نقشهای مکمل مانند ثبت اطلاعات، آموزش روانشناسی و کمک به فعالیتهای غیردرمانی مانند نوشتن خاطرات روزانه مفید باشند، اما به شرط نظارت دقیق و تعیین محدوده مشخص برای مداخلاتشان.
این پژوهش بار دیگر بر این واقعیت تأکید میکند که با وجود پیشرفتهای چشمگیر در حوزه هوش مصنوعی، استفاده از این فناوری در حیطههای حساسی مانند سلامت روان نیازمند استانداردهای سختگیرانهتر و نظارت مستمر است.