چرا نمیتوان به پاسخهای هوش مصنوعی اعتماد کامل کرد؟
نیک تورلی، رئیس بخش ChatGPT در OpenAI، در مصاحبهای با پادکست Decoder از وبسایت The Verge به این موضوع پرداخت که چرا پاسخهای هوش مصنوعی نمیتوانند بهطور مطلق قابلاعتماد باشند. او توضیح داد:
«مسئله اصلی در مورد قابلیت اعتماد، فاصله زیاد بین دو حالت ‹بسیار قابلاعتماد› و ‹کاملاً قابلاعتماد› است. تا زمانی که نتوانیم ثابت کنیم که در تمام حوزهها از یک متخصص انسانی قابلاعتمادتر هستیم، همچنان به کاربران توصیه میکنیم که پاسخهای مدل را بررسی مجدد کنند.»
تورلی تاکید کرد که کاربران نباید ChatGPT را بهعنوان منبع اصلی حقیقت در نظر بگیرند، بلکه بهتر است آن را بهعنوان یک نظر دوم ببینند. او همچنین هشدار داد که ابزارهای هوش مصنوعی مولد مانند ChatGPT ممکن است دچار ‹توهم› (Hallucination) شوند و اطلاعاتی تولید کنند که با واقعیت مطابقت ندارد. دلیل این مسئله آن است که مدلهای زبانی برای پیشبینی محتملترین پاسخ آموزش دیدهاند، نه برای درک عمیق حقیقت.
به گفته او، این ابزارها زمانی بهترین عملکرد را دارند که در کنار منابع معتبر مانند موتورهای جستجو یا دادههای اختصاصی یک سازمان استفاده شوند:
«من هنوز هم معتقدم که بهترین نسخه از یک مدل زبانی بزرگ، مدلی است که به واقعیت متصل باشد. به همین دلیل است که ما قابلیت جستجو را به ChatGPT اضافه کردیم و معتقدیم این ویژگی تغییر بزرگی ایجاد کرده است.»
تورلی اشاره کرد که GPT-5 در مقایسه با نسخههای قبلی، پیشرفت قابلتوجهی در کاهش خطاها داشته است، اما هنوز به سطح ایدهآل نرسیده است. او در این باره گفت:
«مطمئنم که در نهایت مشکل توهم را حل خواهیم کرد، اما قطعاً نه در آیندهای نزدیک.»
با توجه به این نکات، او به کاربران توصیه کرد که همیشه پاسخهای دریافتی از ChatGPT یا هر چت بات دیگری را با منابع معتبر یا نظر متخصصان مقایسه کنند، حتی اگر این پاسخها همراه با لینکهای مرجع ارائه شده باشند.