دراسة جديدة تكشف تشابهًا مذهلًا بين البشر والذكاء الاصطناعي: متعجرف ويُفكر مثلنا

08:39AM

أظهرت أبحاث حديثة أن الذكاء الاصطناعي، على الرغم من اختلاف آلياته عن التفكير البشري، يتشارك مع الإنسان في بعض التحيزات المعرفية والميول للأخطاء.


فقد اكتشف علماء من جامعات في كندا وأستراليا أن ChatGPT، وهو روبوت دردشة مبني على نماذج GPT-3.5 و GPT-4 التي طورتها شركة OpenAI، يقع في نفس الفخاخ النفسية المعروفة عند البشر في 47% من الحالات. 


وأوضحت الاختبارات التي أجريت على هذه النماذج أن تلك الأنظمة ليست معصومة من التأثر بأنماط السلوك البشري، حتى مع تمتعها بدرجة عالية من الاتساق في النتائج والاستنتاجات. ويرى الباحثون أن هذا الاتساق يمكن أن يكون مفيدًا في بعض الأحيان، لكنه أيضًا يشكل مصدر قلق في مواقف أخرى.


وخضعت الشبكات العصبية لاختبارات متعددة للكشف عن التحيزات المعرفية البشرية، مثل:

تجنب المخاطرة

الثقة المفرطة

تأثير النجاح والإنجاز


وقد شملت الاختبارات أسئلة مستوحاة من علم النفس التقليدي إلى جانب سيناريوهات واقعية في عالم الأعمال.


وأظهرت نتائج التجارب أن GPT-4 حققت أداءً أفضل في المهام ذات الحلول الرياضية الواضحة، حيث كانت الأخطاء أقل عند التعامل مع المشكلات المنطقية والاحتمالات. لكن في المواقف التي تتطلب محاكاة ذاتية أو قرارات تنطوي على مخاطر، تكررت نفس الأنماط غير العقلانية التي تظهر عند البشر.


علق البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية "آيفي" للأعمال في كندا، قائلاً: "للاستفادة من الذكاء الاصطناعي بشكل فعّال، يفضل استخدامه في القرارات التي تعتمد على الحسابات الدقيقة. لكن في الحالات التي تتطلب استراتيجية أو تقديرًا ذاتيًا، يصبح الإشراف البشري ضروريًا.


وأشار إلى أن الذكاء الاصطناعي لا ينبغي أن يُعامل كموظف يتخذ قرارات مصيرية بشكل مستقل، بل يحتاج إلى رقابة وتوجيه أخلاقي لضمان عدم أتمتة التحيزات البشرية ونقلها بشكل غير مقصود.


شارك هذا الخبر

آخر الأخبار

إشترك بنشرة الـ"سياسة"

أهم الأخبار و الفيديوهات في بريدك الالكتروني

إشتراك

تحميل تطبيق الـ"سياسة"

Playstore button icon Appstore button icon

تواصل إجتماعي

Contact us on [email protected] | +96176111721
Copyright 2023 © - Elsiyasa