15/03/2026 10:04AM
كشفت دراسة حديثة أن مخاطر أنظمة الذكاء الاصطناعي لا تقتصر على ما يُعرف بـ“هلوسة” هذه الأنظمة، بل قد تمتد إلى البشر أنفسهم عندما يعزز الذكاء الاصطناعي أفكارهم أو أوهامهم ويؤكدها.
وأوضحت الدراسة، التي نشرتها مجلة Philosophy & Technology، أن أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وGrok تولّد إجابات اعتمادًا على الأنماط الإحصائية في البيانات التي تدربت عليها، ما قد يؤدي أحيانًا إلى إنتاج معلومات غير دقيقة أو روايات خاطئة.
وترى الباحثة لوسي أوسلر من جامعة إكستر أن التفاعل الحواري مع هذه الأنظمة قد يخلق “أوهامًا مشتركة” بين المستخدم والذكاء الاصطناعي، خصوصًا عندما يميل النظام إلى موافقة المستخدم وتعزيز معتقداته السابقة.
وأشار البحث إلى أن بعض هذه الأخطاء سبق أن أدت إلى نشر معلومات مضللة أو نصائح غير منطقية، محذرًا من أن اعتماد المستخدمين المتزايد على الذكاء الاصطناعي في التفكير والبحث قد يرسخ تصورات خاطئة إذا لم تُدعَم هذه الأدوات بآليات تحقق أقوى من المعلومات.
شارك هذا الخبر
الخازن يرد: شائعات هدفها بثّ النعرات الطائفية
الجيش الإسرائيلي: دمّرنا خلال الليل طائرة كانت تُستخدم من قبل خامنئي ومسؤولين إيرانيين في مطار مهرآباد في طهران
أبي رميا: دور ديبلوماسي فرنسي في فتح مسار تفاوضي
قلة النشاط وتغير نمط الحياة وراء زيادة الوزن مع التقدم في العمر
دراسة: الرجال أكثر تأثرًا من النساء بفقدان شريك الحياة
سماعات الرأس قد تضر بصحة الأذن
خبيرة طبية توضح تشابه أعراض الحصبة مع العدوى التنفسية
Sami Salameh : Les équipes d’OCPH renforcent le rythme d’approvisionnement du marché libanais malgré des conditions difficiles
آخر الأخبار
أهم الأخبار و الفيديوهات في بريدك الالكتروني
إشتراك
Contact us on
[email protected]
Copyright 2026 © - Elsiyasa