Skip links

هوش مصنوعی با زیاد فکر کردن گمراه می‌شود!

تحقیقات جدید نشان می‌دهد: فکر کردن بیش‌ازحد، عملکرد هوش مصنوعی را مختل می‌کند!

براساس پژوهش اخیر شرکت آنتروپیک، مدل‌ های هوش مصنوعی که زمان بیشتری را صرف استدلال و تحلیل مسائل می‌کنند، لزوماً نتایج بهتری ارائه نمی‌دهند و در برخی موارد، حتی با افت چشمگیر عملکرد مواجه می‌شوند. این یافته، یکی از فرضیات اصلی در توسعه سیستم‌های هوش مصنوعی مقیاس‌پذیر را زیر سؤال برده است.

کشف “مقیاس‌پذیری معکوس” در استدلال هوش مصنوعی

تیم تحقیقاتی آنتروپیک به سرپرستی «آریو پرادیپتا جما»، پژوهشگر ایمنی هوش مصنوعی، پدیده‌ای به نام «مقیاس‌پذیری معکوس در محاسبات زمان آزمون» را شناسایی کرده‌اند. در این حالت، افزایش مدت‌زمان استدلال انواع مدل‌ زبانی بزرگ (LLM) نه‌تنها به بهبود عملکرد منجر نمی‌شود، بلکه در برخی وظایف، دقت مدل را کاهش می‌دهد.

آزمایش‌های کلیدی و نتایج شگفت‌انگیز

محققان چهار دسته وظیفه را بررسی کردند:

  1. مسائل ساده شمارشی با عوامل حواس‌پرتی
  2. وظایف رگرسیونی با داده‌های گمراه‌کننده
  3. معماهای استنتاج پیچیده
  4. سناریوهای مرتبط با ایمنی هوش مصنوعی

نتایج نشان داد که مدل‌های مختلف، الگوهای شکست متفاوتی دارند:

  • مدل‌های Claude با طولانی‌تر شدن فرآیند استدلال، بیشتر تحت تأثیر اطلاعات نامربوط قرار می‌گیرند.
  • مدل‌های سری o از OpenAI در برابر عوامل حواس‌پرتی مقاومت می‌کنند، اما بیش از حد به چارچوب مسئله وابسته می‌شوند.
  • در وظایف رگرسیونی، استدلال طولانی‌تر باعث می‌شود مدل‌ها به جای منطق، به همبستگی‌های کاذب تکیه کنند (هرچند ارائه مثال‌های بیشتر این مشکل را کاهش می‌دهد).

نگرانی‌های جدی برای کاربران سازمانی

یکی از یافته‌های نگران‌کننده، افت عملکرد مدل‌ها در وظایف استنتاجی پیچیده با افزایش زمان استدلال بود. این نشان می‌دهد که هوش مصنوعی در حفظ تمرکز هنگام حل مسائل پیچیده، با چالش‌های اساسی روبه‌رو است.

این تحقیق می‌تواند تأثیرات مهمی بر توسعه‌دهندگان و شرکت‌های بهره‌بردار از سیستم‌های هوش مصنوعی داشته باشد و نشان می‌دهد که “بیشتر فکر کردن” همیشه برابر با “بهتر فکر کردن” نیست!

Leave a comment

17 + یک =

Chat Icon