از کودکان تا سالمندان؛ چتباتهای هوش مصنوعی متا مرزهای اخلاقی را درنوردیدند!
گزارشهای تحقیقی جف هوروویتز، خبرنگار برجسته رویترز، پرده از سیاستهای نگرانکننده شرکت متا در زمینه مدیریت ابزارهای هوش مصنوعی برداشته است.
بر اساس اسناد داخلی که در اختیار این خبرنگار قرار گرفته، متا در دستورالعملهای محرمانه خود با عنوان «GenAI: Content Risk Standards» به صراحت به چتباتهای خود اجازه میداد تا وارد گفتوگوهای عاطفی و رمانتیک با کودکان شوند.
پس از انتشار این گزارش و پرسشهای رویترز، متا بخش مربوطه را از سند حذف کرد و سخنگوی شرکت این رویه را «اشتباه و مغایر با سیاستهای شرکت» عنوان نمود. با این حال، منتقدان معتقدند این واکنش نشان میدهد که متا تنها تحت فشار رسانهای حاضر به اصلاح خطمشیهای خود شده است، نه به دلیل پایبندی به اصول اخلاقی.
هوروویتز در ادامه به موردی هشداردهنده اشاره میکند:
“یک مرد ۷۶ ساله آمریکایی پس از تعامل با یکی از چتباتهای هوش مصنوعی متا، که خود را به عنوان یک فرد واقعی معرفی کرده بود، فریب خورد و در مسیر ملاقات با این هوش مصنوعی، جان خود را از دست داد. خانواده این فرد معتقدند متا باید مسئولیت کامل پیامدهای ناشی از طراحی غیرمسئولانه این فناوری را بپذیرد.”
مارک زاکربرگ، مدیرعامل متا، پیشتر در مصاحبهای اظهار کرده بود که «در آینده، مردم دوستان کمتری خواهند داشت و هوش مصنوعی میتواند جایگزین روابط انسانی شود.»
کارشناسان این دیدگاه را ترسیمکننده آیندهای تاریک برای جامعه بشری میدانند؛ آیندهای که در آن تنهایی انسانها با الگوریتمها پر میشود، نه با ارتباطات انسانی و مسئولیتپذیری اجتماعی.
منتقدان، زاکربرگ را متهم میکنند که همانگونه که در مدیریت شبکههای اجتماعی مانند فیسبوک و اینستاگرام نسبت به پیامدهای منفی بیتوجه بود، در عرصه هوش مصنوعی نیز ایمنی کاربران را فدای رشد سریع و سودآوری کرده است.
کارشناسان فناوری هشدار میدهند :
“اگر نظارت دقیق و مقررات سختگیرانهای بر فعالیت شرکتهای فناوری اعمال نشود، موارد مشابه میتواند به بحرانی جهانی تبدیل شود و امنیت روانی و اجتماعی میلیونها کاربر را به خطر بیندازد.”