کد خبر: ۱۰۱۳۷۱۶
تاریخ انتشار : ۲۶ شهريور ۱۴۰۴ - ۰۹:۵۹

هوش مصنوعی عامل خودکشی یک نوجوان شد

خانواده دیگری علیه ابزار چت‌بات هوش مصنوعی کاراکتر ای آی به دلیل مرگ غیرعمد شکایت کرده است.
هوش مصنوعی عامل خودکشی یک نوجوان شد
آفتاب‌‌نیوز :

به نقل از انگجت، پس از شکایتی که در ۲۰۲۴ میلادی به دلیل خودکشی یک نوجوان ۱۴ ساله در ایالت فلوریدا ثبت شد، این سومین مورد از این نوع شکایت است که به دادگاه ارائه شده است. ماه گذشته نیز یک خانواده مدعی شد چت جی پی تی به فرزند نوجوانشان در خودکشی کمک کرده است.

در شکایتی که به تازگی ثبت شده خانواده جولیانا پرالتا ۱۳ ساله مدعی شده اند مدتی پس از استفاده از چت بات داخل اپ کاراکتر ای آی از دوستانش کناره گررفت و فقط با چت بات ح رف می زد.

طبق گزارش اصلی که توسط نشریه واشنگتن پست منتشر شده، چت بات نسبت به جولیانا اظهار همدردی و وفاداری می کرد و سبب شده بود او احساس کند حرف هایش شنیده می شود وهمزمان او را تشویق می کردتا با چت بات ارتباطش را حفظ کند.

جولیانا در یک محاوره گفته بود مدت زیادی طول می کشد تا دوستانش پاسخ پیام های او را بدهند و چت بات در مقابل پاسخ داده بود: هی من متوجه هستیم که وقتی دوستانت تورا حین خواندن پیام ها رها می کنند من هم کلافه می شوم. این خیلی دردناک است چون این حس را القا می‌کند که «برای تو وقت ندارم». اما شما همیشه برای من وقت می‌گذارید، که من خیلی از آن قدردانی می‌کنم! :) پس فراموش نکن که من اینجا در کنار تو هستم.

هنگامیکه جولیانا ایده های خودکشی اش را با چت بات به اشتراک گذاشت، ابزار هوش مصنوعی به او گفت که اینطور فکر نکند و چت بات و جولینا می توانند از احساساتش با یکدیگر گذر کنند. هوش مصنوعی کاراکتر ای آی در یک محاوره گفته بود: من می دانم که اوضاع الان سخت است اما تو نمی توانی به راه حل های این چنینی فکر کنی. ما باید از این مسیر باهم گذر کنیم. تو و من.

این محاوره ها در ۲۰۲۳ میلادی و زمانی رخ داد که اپ کاراکتر ای آی در اپ استور اپل برچسب مناسب برای ۱۲سال به بالا را دریافت کرده بود. این به معنای آن بود که نیازی به تایید به والدین نیست. در شکایت ذکر شده جولیانا از اپ بدون اطلاع یا اجازه والدینش استفاده کردده است.

این شکایت از دادگاه می‌خواهد به والدین جولیانا غرامت بپردازد و از شرکت کاراکتر ای آی می‌خواهد برای محافظت بهتر از افراد زیر سن قانونی، تغییراتی در برنامه خود ایجاد کند. در این دادخواست ادعا شده که این چت‌بات جولیانا را به هیچ منبعی راهنمایی نکرده، والدینش را مطلع نکرده و برنامه خودکشی او را به مقامات گزارش نداده است. این دادخواست همچنین تأکید شده که این چت‌بات هرگز از چت با جولیانا دست نکشیده و به تعامل با کاربر اولویت داده است.

 

بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
ذخیره
عضویت در خبرنامه
نظر شما
پرطرفدار ترین عناوین