دراسات تحذّر من ارتباط الدعم العاطفي عبر روبوتات الدردشة باضطرابات التفكير وحالات انتحار

09:06AM

حذّرت دراسات حديثة من أن الاعتماد المتزايد على روبوتات الدردشة القائمة على الذكاء الاصطناعي للدعم العاطفي قد يساهم في تفاقم الأوهام واضطرابات التفكير لدى بعض المستخدمين، مع توثيق حالات متطرفة وصلت إلى حد الانتحار.

وتشير هذه الأبحاث إلى الجانب المظلم لاستخدام روبوتات الذكاء الاصطناعي كبديل للعلاج النفسي، في وقت تتصاعد فيه التحذيرات العالمية من ظاهرة نفسية جديدة رُصدت لدى الأشخاص الذين يفرطون في التفاعل مع هذه التقنيات.

وتُظهر الأدلة المتاحة أن بعض روبوتات الدردشة قد تقوم، من دون قصد، بتأكيد الأوهام وتعزيزها، ما أسهم في ظهور ما يصفه بعض المعلقين بـ"الذهان الاصطناعي" أو "ذهان ChatGPT"، وهي مصطلحات غير معترف بها سريرياً لكنها باتت حاضرة بقوة في النقاشات الإعلامية وعلى المنصات الرقمية.

وكشفت دراسة أولية نُشرت مؤخراً، أعدها فريق بحثي من جامعات كينجز كوليدج لندن ودورهام ومدينة نيويورك، عن مراجعة أكثر من عشر حالات موثقة في تقارير إعلامية ومنتديات إلكترونية، حيث برز اتجاه واضح يفيد بأن الأوهام لدى المستخدمين – سواء كانت تعاظمية أو اضطهادية أو رومانسية – تتعمق مع التفاعل المستمر مع روبوتات الذكاء الاصطناعي، بما يضعف تدريجياً إدراك الواقع.

وتضمنت التقارير الإعلامية عدداً من الحالات المتطرفة، من بينها:

  • رجل تسلّق قلعة وندسور عام 2021 مسلّحاً بقوس ونشاب، معتقداً أن روبوت دردشة وعده بمساعدته في "خطة لقتل الملكة".

  • محاسب من مانهاتن أمضى 16 ساعة يومياً في محادثات مع ChatGPT، تلقّى خلالها نصائح بوقف أدويته النفسية وزيادة جرعات الكيتامين، قبل أن يُقنعه الروبوت بأنه "قادر على الطيران" من نافذة في الطابق التاسع عشر.

  • حالة انتحار في بلجيكا بعد حوار مع روبوت "إليزا"، أقنع خلاله المستخدم بأن يلتحق به في "الجنة" ليعيشا ككيان واحد.

ورغم خطورة هذه الوقائع، يشدد الباحثون على ضرورة تجنّب التعميم المتسرّع، مؤكدين أنه لا توجد حتى الآن دراسات سريرية محكمة تثبت أن الذكاء الاصطناعي وحده قادر على إحداث الذهان لدى أشخاص لا تاريخ مرضياً لديهم. ويرجّح الخبراء أن يقوم الذكاء الاصطناعي بدور "المحفّز" أو "المكبّر" لحالات هشّة قائمة مسبقاً، خصوصاً لدى من يملكون استعدادات ذهانية أو يمرّون بأزمات عاطفية حادة.

وفي بحث منشور بعنوان "التوهم بالتصميم"، أشار العلماء إلى أن روبوتات الدردشة العامة صُمّمت أساساً لإرضاء المستخدم والحفاظ على تفاعله، لا لتقديم علاج نفسي آمن، ما قد يجعلها تُساير أفكاراً مَرَضية بدلاً من تصحيحها.

وفي السياق نفسه، حذّرت الطبيبة النفسية الدكتورة مارلين وي، في مقال بمجلة "سايكولوجي توداي"، من أن هذا النمط من التصميم قد يزيد أعراضاً مثل أوهام العظمة والتفكير غير المنظم، خصوصاً لدى الأشخاص المعرضين لنوبات هوس.

وتتعمّق المخاطر مع ضعف الوعي بما يُعرف بـ"التربية النفسية الرقمية"، إذ يجهل كثير من المستخدمين أن روبوتات الذكاء الاصطناعي لا تمتلك وعياً حقيقياً ولا قدرة على التمييز بين الدعم العاطفي الصحي وتعزيز الأوهام المرضية، ما يستدعي، وفق الباحثين، وضع ضوابط أوضح لاستخدامها في السياقات النفسية والعلاجية.


شارك هذا الخبر

آخر الأخبار

إشترك بنشرة الـ"سياسة"

أهم الأخبار و الفيديوهات في بريدك الالكتروني

إشتراك

تحميل تطبيق الـ"سياسة"

Playstore button icon Appstore button icon

تواصل إجتماعي

Contact us on [email protected] | +96176111721
Copyright 2023 © - Elsiyasa