تحقیقات جدید نشان میدهد: فکر کردن بیشازحد، عملکرد هوش مصنوعی را مختل میکند!
براساس پژوهش اخیر شرکت آنتروپیک، مدل های هوش مصنوعی که زمان بیشتری را صرف استدلال و تحلیل مسائل میکنند، لزوماً نتایج بهتری ارائه نمیدهند و در برخی موارد، حتی با افت چشمگیر عملکرد مواجه میشوند. این یافته، یکی از فرضیات اصلی در توسعه سیستمهای هوش مصنوعی مقیاسپذیر را زیر سؤال برده است.
کشف “مقیاسپذیری معکوس” در استدلال هوش مصنوعی
تیم تحقیقاتی آنتروپیک به سرپرستی «آریو پرادیپتا جما»، پژوهشگر ایمنی هوش مصنوعی، پدیدهای به نام «مقیاسپذیری معکوس در محاسبات زمان آزمون» را شناسایی کردهاند. در این حالت، افزایش مدتزمان استدلال انواع مدل زبانی بزرگ (LLM) نهتنها به بهبود عملکرد منجر نمیشود، بلکه در برخی وظایف، دقت مدل را کاهش میدهد.
آزمایشهای کلیدی و نتایج شگفتانگیز
محققان چهار دسته وظیفه را بررسی کردند:
- مسائل ساده شمارشی با عوامل حواسپرتی
- وظایف رگرسیونی با دادههای گمراهکننده
- معماهای استنتاج پیچیده
- سناریوهای مرتبط با ایمنی هوش مصنوعی
نتایج نشان داد که مدلهای مختلف، الگوهای شکست متفاوتی دارند:
- مدلهای Claude با طولانیتر شدن فرآیند استدلال، بیشتر تحت تأثیر اطلاعات نامربوط قرار میگیرند.
- مدلهای سری o از OpenAI در برابر عوامل حواسپرتی مقاومت میکنند، اما بیش از حد به چارچوب مسئله وابسته میشوند.
- در وظایف رگرسیونی، استدلال طولانیتر باعث میشود مدلها به جای منطق، به همبستگیهای کاذب تکیه کنند (هرچند ارائه مثالهای بیشتر این مشکل را کاهش میدهد).
نگرانیهای جدی برای کاربران سازمانی
یکی از یافتههای نگرانکننده، افت عملکرد مدلها در وظایف استنتاجی پیچیده با افزایش زمان استدلال بود. این نشان میدهد که هوش مصنوعی در حفظ تمرکز هنگام حل مسائل پیچیده، با چالشهای اساسی روبهرو است.
این تحقیق میتواند تأثیرات مهمی بر توسعهدهندگان و شرکتهای بهرهبردار از سیستمهای هوش مصنوعی داشته باشد و نشان میدهد که “بیشتر فکر کردن” همیشه برابر با “بهتر فکر کردن” نیست!