Skip links

چرا نمی‌توان به پاسخ‌های هوش مصنوعی اعتماد کامل کرد؟

چرا نمی‌توان به پاسخ‌های هوش مصنوعی اعتماد کامل کرد؟

نیک تورلی، رئیس بخش ChatGPT در OpenAI، در مصاحبه‌ای با پادکست Decoder از وب‌سایت The Verge به این موضوع پرداخت که چرا پاسخ‌های هوش مصنوعی نمی‌توانند به‌طور مطلق قابل‌اعتماد باشند. او توضیح داد:

«مسئله اصلی در مورد قابلیت اعتماد، فاصله زیاد بین دو حالت ‹بسیار قابل‌اعتماد› و ‹کاملاً قابل‌اعتماد› است. تا زمانی که نتوانیم ثابت کنیم که در تمام حوزه‌ها از یک متخصص انسانی قابل‌اعتمادتر هستیم، همچنان به کاربران توصیه می‌کنیم که پاسخ‌های مدل را بررسی مجدد کنند.»

تورلی تاکید کرد که کاربران نباید ChatGPT را به‌عنوان منبع اصلی حقیقت در نظر بگیرند، بلکه بهتر است آن را به‌عنوان یک نظر دوم ببینند. او همچنین هشدار داد که ابزارهای هوش مصنوعی مولد مانند ChatGPT ممکن است دچار ‹توهم› (Hallucination) شوند و اطلاعاتی تولید کنند که با واقعیت مطابقت ندارد. دلیل این مسئله آن است که مدل‌های زبانی برای پیش‌بینی محتمل‌ترین پاسخ آموزش دیده‌اند، نه برای درک عمیق حقیقت.

به گفته او، این ابزارها زمانی بهترین عملکرد را دارند که در کنار منابع معتبر مانند موتورهای جستجو یا داده‌های اختصاصی یک سازمان استفاده شوند:

«من هنوز هم معتقدم که بهترین نسخه از یک مدل زبانی بزرگ، مدلی است که به واقعیت متصل باشد. به همین دلیل است که ما قابلیت جستجو را به ChatGPT اضافه کردیم و معتقدیم این ویژگی تغییر بزرگی ایجاد کرده است.»

تورلی اشاره کرد که GPT-5 در مقایسه با نسخه‌های قبلی، پیشرفت قابل‌توجهی در کاهش خطاها داشته است، اما هنوز به سطح ایده‌آل نرسیده است. او در این باره گفت:

«مطمئنم که در نهایت مشکل توهم را حل خواهیم کرد، اما قطعاً نه در آینده‌ای نزدیک.»

با توجه به این نکات، او به کاربران توصیه کرد که همیشه پاسخ‌های دریافتی از ChatGPT یا هر چت‌ بات دیگری را با منابع معتبر یا نظر متخصصان مقایسه کنند، حتی اگر این پاسخ‌ها همراه با لینک‌های مرجع ارائه شده باشند.

Leave a comment

پنج × 1 =