دراسة تحذر من “هلوسة البشر” مع الذكاء الاصطناعي

10:04AM

كشفت دراسة حديثة أن مخاطر أنظمة الذكاء الاصطناعي لا تقتصر على ما يُعرف بـ“هلوسة” هذه الأنظمة، بل قد تمتد إلى البشر أنفسهم عندما يعزز الذكاء الاصطناعي أفكارهم أو أوهامهم ويؤكدها.

وأوضحت الدراسة، التي نشرتها مجلة Philosophy & Technology، أن أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وGrok تولّد إجابات اعتمادًا على الأنماط الإحصائية في البيانات التي تدربت عليها، ما قد يؤدي أحيانًا إلى إنتاج معلومات غير دقيقة أو روايات خاطئة.

وترى الباحثة لوسي أوسلر من جامعة إكستر أن التفاعل الحواري مع هذه الأنظمة قد يخلق “أوهامًا مشتركة” بين المستخدم والذكاء الاصطناعي، خصوصًا عندما يميل النظام إلى موافقة المستخدم وتعزيز معتقداته السابقة.

وأشار البحث إلى أن بعض هذه الأخطاء سبق أن أدت إلى نشر معلومات مضللة أو نصائح غير منطقية، محذرًا من أن اعتماد المستخدمين المتزايد على الذكاء الاصطناعي في التفكير والبحث قد يرسخ تصورات خاطئة إذا لم تُدعَم هذه الأدوات بآليات تحقق أقوى من المعلومات.


شارك هذا الخبر

آخر الأخبار

إشترك بنشرة الـ"سياسة"

أهم الأخبار و الفيديوهات في بريدك الالكتروني

إشتراك

تحميل تطبيق الـ"سياسة"

Playstore button icon Appstore button icon

تواصل إجتماعي

Contact us on [email protected]
Copyright 2026 © - Elsiyasa