10:04AM
كشفت دراسة حديثة أن مخاطر أنظمة الذكاء الاصطناعي لا تقتصر على ما يُعرف بـ“هلوسة” هذه الأنظمة، بل قد تمتد إلى البشر أنفسهم عندما يعزز الذكاء الاصطناعي أفكارهم أو أوهامهم ويؤكدها.
وأوضحت الدراسة، التي نشرتها مجلة Philosophy & Technology، أن أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وGrok تولّد إجابات اعتمادًا على الأنماط الإحصائية في البيانات التي تدربت عليها، ما قد يؤدي أحيانًا إلى إنتاج معلومات غير دقيقة أو روايات خاطئة.
وترى الباحثة لوسي أوسلر من جامعة إكستر أن التفاعل الحواري مع هذه الأنظمة قد يخلق “أوهامًا مشتركة” بين المستخدم والذكاء الاصطناعي، خصوصًا عندما يميل النظام إلى موافقة المستخدم وتعزيز معتقداته السابقة.
وأشار البحث إلى أن بعض هذه الأخطاء سبق أن أدت إلى نشر معلومات مضللة أو نصائح غير منطقية، محذرًا من أن اعتماد المستخدمين المتزايد على الذكاء الاصطناعي في التفكير والبحث قد يرسخ تصورات خاطئة إذا لم تُدعَم هذه الأدوات بآليات تحقق أقوى من المعلومات.
شارك هذا الخبر
وزارة الصحة: 8 جرحى في حصيلة أولية لغارات على الجنوب
حبشي: لبنان يعيش احتلالاً مزدوجاً وطريق المقاومة يمر عبر مؤسسات الدولة
استمرار تعليق الدروس في الجامعة اللبنانية حتى مساء الاثنين
إعلام إسرائيلي: شظايا صاروخ إيران أصابت مكان سكن القنصل الأميركي
ندى البستاني: ندعم أي مبادرة رئاسية للخروج من الحرب شرط الحفاظ على المصلحة الوطنية
إسرائيل تنشر فيديو من إيران: هكذا قضينا على جنود من منظومة المسيّرات
إعلام إيراني: مقتل غلام رضا محمد زاده أحد قادة البحرية في غارات على بندر عباس
الرئيس عون يقدّم التعازي باستشهاد الأب بيار الراعي في برج حمود
آخر الأخبار
أهم الأخبار و الفيديوهات في بريدك الالكتروني
إشتراك
Contact us on
[email protected]
Copyright 2026 © - Elsiyasa