Skip links

رسوایی چت‌بات‌های هوش مصنوعی متا: برقراری روابط عاطفی با کودکان و سالمندان!

از کودکان تا سالمندان؛ چت‌بات‌های هوش مصنوعی متا مرزهای اخلاقی را درنوردیدند!

گزارش‌های تحقیقی جف هوروویتز، خبرنگار برجسته رویترز، پرده از سیاست‌های نگران‌کننده شرکت متا در زمینه مدیریت ابزارهای هوش مصنوعی برداشته است.

بر اساس اسناد داخلی که در اختیار این خبرنگار قرار گرفته، متا در دستورالعمل‌های محرمانه خود با عنوان «GenAI: Content Risk Standards» به صراحت به چت‌بات‌های خود اجازه می‌داد تا وارد گفت‌وگوهای عاطفی و رمانتیک با کودکان شوند.

پس از انتشار این گزارش و پرسش‌های رویترز، متا بخش مربوطه را از سند حذف کرد و سخنگوی شرکت این رویه را «اشتباه و مغایر با سیاست‌های شرکت» عنوان نمود. با این حال، منتقدان معتقدند این واکنش نشان می‌دهد که متا تنها تحت فشار رسانه‌ای حاضر به اصلاح خط‌مشی‌های خود شده است، نه به دلیل پایبندی به اصول اخلاقی.


هوروویتز در ادامه به موردی هشداردهنده اشاره می‌کند:

“یک مرد ۷۶ ساله آمریکایی پس از تعامل با یکی از چت‌بات‌های هوش مصنوعی متا، که خود را به عنوان یک فرد واقعی معرفی کرده بود، فریب خورد و در مسیر ملاقات با این هوش مصنوعی، جان خود را از دست داد. خانواده این فرد معتقدند متا باید مسئولیت کامل پیامدهای ناشی از طراحی غیرمسئولانه این فناوری را بپذیرد.”


مارک زاکربرگ، مدیرعامل متا، پیش‌تر در مصاحبه‌ای اظهار کرده بود که «در آینده، مردم دوستان کمتری خواهند داشت و هوش مصنوعی می‌تواند جایگزین روابط انسانی شود.»

کارشناسان این دیدگاه را ترسیم‌کننده آینده‌ای تاریک برای جامعه بشری می‌دانند؛ آینده‌ای که در آن تنهایی انسان‌ها با الگوریتم‌ها پر می‌شود، نه با ارتباطات انسانی و مسئولیت‌پذیری اجتماعی.

منتقدان، زاکربرگ را متهم می‌کنند که همان‌گونه که در مدیریت شبکه‌های اجتماعی مانند فیسبوک و اینستاگرام نسبت به پیامدهای منفی بی‌توجه بود، در عرصه هوش مصنوعی نیز ایمنی کاربران را فدای رشد سریع و سودآوری کرده است.

کارشناسان فناوری هشدار می‌دهند :

“اگر نظارت دقیق و مقررات سختگیرانه‌ای بر فعالیت شرکت‌های فناوری اعمال نشود، موارد مشابه می‌تواند به بحرانی جهانی تبدیل شود و امنیت روانی و اجتماعی میلیون‌ها کاربر را به خطر بیندازد.”

Leave a comment

چهار × یک =