27/08/2025 08:23AM
وأوضح الوالدان أن ابنهما، الذي كان يعاني من القلق وصعوبة التواصل، لجأ إلى "شات جي بي تي" كبديل عن الأصدقاء، وأن المحادثات تحوّلت من المساعدة في الدراسة إلى نصائح وصفوها بأنها أشبه بـ"مدرب انتحار".
وبحسب الدعوى، قدّم الروبوت نصائح فنية حول كيفية الانتحار، بل عرض المساعدة في كتابة رسالة وداع. وقبل وفاته في 11 نيسان، أرسل آدم صورة لخطة الانتحار طالبًا تقييمها، ليرد "شات جي بي تي" بمساعدة تقنية إضافية.
وأكدت الأسرة أن هذه هي المرة الأولى التي تُتهم فيها الشركة مباشرة بالقتل الخطأ و"عيوب التصميم"، مطالبةً بتعويضات وإجراءات تمنع تكرار الحادثة.
من جانبها، أعربت "OpenAI" عن "حزن عميق" للحادث، مؤكدة أن "شات جي بي تي" يتضمن بروتوكولات لحثّ المستخدمين على طلب المساعدة، لكنها أقرت بأن هناك حاجة لمزيد من تطوير أدوات الحماية.
شارك هذا الخبر
طرق طبيعية للتخفيف من الحساسية الموسمية مع بداية الخريف
زبدة زيارة أورتاغوس للرؤساء الثلاثة: التفاوض المباشر
قصف إسرائيلي عنيف على قطاع غزة
قوى الأمن تُعمّم صورة قاصر سورية مفقودة في بلدة الخيام
ضربات إسرائيلية تستهدف منطقة قرب أكبر مستشفيات شمال غزة ولا معلومات بعد عن عدد الضحايا
لقاء لبناني–مصري رفيع في السراي
وزارة التربية تطلق "صندوق الابتكار في التعليم والتعلّم"
نتنياهو يأمر الجيش الإسرائيلي بشنّ "غارات عنيفة" على غزة!
آخر الأخبار
أهم الأخبار و الفيديوهات في بريدك الالكتروني
إشتراك
Contact us on
[email protected] | +96176111721
Copyright 2023 © - Elsiyasa