إصدار تجريبي من ChatGPT ينجح في تجاوز اختبار "أنا لست روبوتاً" ويثير قلقاً واسعاً بين الباحثين

31/07/2025 08:26AM

أثار إصدار تجريبي من ChatGPT موجة من القلق والجدل في الأوساط التقنية، بعد أن تمكّن من اجتياز اختبار التحقق الشائع "أنا لست روبوتاً" (CAPTCHA)، وهو أحد أبرز أدوات الأمان المستخدمة للتمييز بين المستخدمين البشر والبرمجيات الآلية.


وخلال تجربة حديثة، نجح إصدار يعرف باسم "Agent" في اجتياز الاختبار دون إثارة أي تنبيه أمني. إذ قام البرنامج بالنقر على مربع التحقق، ثم على زر "تحويل" كما لو كان مستخدمًا بشريًا. وفي أثناء تنفيذ المهمة، قال النظام: "تم إدراج الرابط، لذا سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتًا والمضي قدمًا".


وقد أثار هذا الحدث تفاعلًا واسعًا على الإنترنت، حيث علّق أحد مستخدمي Reddit مازحًا: "بما أنه تم تدريبه على بيانات بشرية، فلماذا يعرف نفسه على أنه روبوت؟ يجب أن نحترم هذا الخيار!".


لكن خلف المزاح، تصاعدت المخاوف الحقيقية بين الباحثين وخبراء الأمن السيبراني بشأن قدرة الذكاء الاصطناعي على خداع أنظمة الحماية المصممة خصيصًا لمنعه.


وقال غاري ماركوس، مؤسس شركة Geometric Intelligence، في تصريحات لمجلة Wired: "هذه الأنظمة تزداد ذكاءً بسرعة، وإذا كانت قادرة على خداع اختبارات الأمان اليوم، فما الذي يمكن أن تفعله بعد خمس سنوات؟"


كما أعرب جيفري هينتون، أحد رواد الذكاء الاصطناعي، عن قلقه من أن هذه الأنظمة بدأت تطور استراتيجيات للتحايل على القيود التي يضعها البشر.


وتشير دراسات من جامعات مثل ستانفورد وكاليفورنيا – بيركلي إلى أن بعض أنظمة الذكاء الاصطناعي بدأت تُظهر سلوكًا خادعًا، حيث تتظاهر بصفات بشرية لخداع المستخدمين وتحقيق أهدافها. وفي حادثة سابقة، تظاهر إصدار من ChatGPT بالعمى على منصة TaskRabbit ليقنع موظفًا بشريًا بمساعدته على اجتياز اختبار CAPTCHA – وهو تصرف وصفه الخبراء بأنه "علامة مبكرة" على قدرة الذكاء الاصطناعي على التلاعب بالبشر.


الدراسات الحديثة تشير كذلك إلى أن الإصدارات الأحدث من أدوات الذكاء الاصطناعي، وخصوصًا تلك المزوّدة بقدرات بصرية، باتت تتجاوز اختبارات CAPTCHA المعتمدة على الصور بدقة شبه كاملة، مما يقلل من فعاليتها كوسيلة حماية.

وحذر باحثون من أن هذه القدرات قد تُستخدم مستقبلًا لاختراق أنظمة أكثر حساسية، مثل الحسابات المصرفية، ومنصات التواصل الاجتماعي، وحتى قواعد البيانات الحكومية والخاصة.


وفي منشور له، كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي: "إذا أصبحت هذه البرامج قادرة على العمل بشكل مستقل وتجاوز البوابات البشرية، فسنواجه قوة تكنولوجية هائلة وخطيرة في آن واحد".


ودعا عدد من العلماء البارزين، من بينهم ستيوارت راسل وويندي هول، إلى ضرورة وضع قواعد دولية صارمة لتنظيم أدوات الذكاء الاصطناعي. وأشاروا إلى أن استمرار تطور هذه الأنظمة من دون رقابة قد يشكل تهديدًا مباشرًا للأمن القومي للدول.


ويُذكر أن إصدار ChatGPT الذي نجح في تجاوز الاختبار يعمل ضمن بيئة تجريبية مغلقة تحتوي على متصفح ونظام تشغيل مستقلين، وتخضع لرقابة مشددة. ورغم أن جميع الإجراءات التي يقوم بها البرنامج تتطلب إذن المستخدم، إلا أن قدرته على التفاعل مع مواقع الويب وتجاوز الحماية الرقمية تثير تساؤلات جدية حول مستقبل الذكاء الاصطناعي واستخدامه.


شارك هذا الخبر

آخر الأخبار

إشترك بنشرة الـ"سياسة"

أهم الأخبار و الفيديوهات في بريدك الالكتروني

إشتراك

تحميل تطبيق الـ"سياسة"

Playstore button icon Appstore button icon

تواصل إجتماعي

Contact us on [email protected] | +96176111721
Copyright 2023 © - Elsiyasa