27/08/2025 08:23AM
وأوضح الوالدان أن ابنهما، الذي كان يعاني من القلق وصعوبة التواصل، لجأ إلى "شات جي بي تي" كبديل عن الأصدقاء، وأن المحادثات تحوّلت من المساعدة في الدراسة إلى نصائح وصفوها بأنها أشبه بـ"مدرب انتحار".
وبحسب الدعوى، قدّم الروبوت نصائح فنية حول كيفية الانتحار، بل عرض المساعدة في كتابة رسالة وداع. وقبل وفاته في 11 نيسان، أرسل آدم صورة لخطة الانتحار طالبًا تقييمها، ليرد "شات جي بي تي" بمساعدة تقنية إضافية.
وأكدت الأسرة أن هذه هي المرة الأولى التي تُتهم فيها الشركة مباشرة بالقتل الخطأ و"عيوب التصميم"، مطالبةً بتعويضات وإجراءات تمنع تكرار الحادثة.
من جانبها، أعربت "OpenAI" عن "حزن عميق" للحادث، مؤكدة أن "شات جي بي تي" يتضمن بروتوكولات لحثّ المستخدمين على طلب المساعدة، لكنها أقرت بأن هناك حاجة لمزيد من تطوير أدوات الحماية.
شارك هذا الخبر
ميسي يكشف قائمته لأعظم الرياضيين: مارادونا أولًا
لأقصى فائدة غذائية: لا تمزج الموز مع العصائر
انقلاب شاحنة يحرر قرودًا عدوانية!
لصّ سابق: حذّرتُ اللوفر من ثغرات بصناديق عرض الجواهر قبل السرقة
كوريا الشمالية تختبر صاروخ كروز قبل زيارة ترامب لجارتها الجنوبية
ترامب يتحدث عن ترشحه لولاية ثالثة ويتأسف
طرقات الموت تخطف ضحية وجرحى خلال ساعات
حماس تعلن العثور على جثتي رهينتين إضافيتين في غزة وتأجيل تسليم ثالثة
آخر الأخبار
أهم الأخبار و الفيديوهات في بريدك الالكتروني
إشتراك
Contact us on
[email protected] | +96176111721
Copyright 2023 © - Elsiyasa