الروبوتات "الواعية".. جدل حول القدرة على "التعبير عن الأحاسيس"

16/06/2022 07:45AM

قبل فترة وجيزة فتح المهندس لدى شركة "غوغل"، بليك ليموين، كمبيوتره ليتحدث إلى "لامدا" (LaMDA) وهو برنامج دردشة تعمل شركة "غوغل" على تطويره بتقنية الذكاء الاصطناعي. 

وقال لصحيفة "واشنطن بوست": "إن لم أكن على علم بماهيته، أي برنامج حاسوبي قمنا بتطويره مؤخرا، لكنتُ ظننتُ أني أتحدث إلى طفل في السابعة أو الثامنة من عمره مطّلع في الفيزياء". 

وكجزء من عمله، كان على ليموين، الذي درس العلوم الإدراكية والحاسوبية، أن يتحدث إلى البرنامج المخصص لتطوير المهارات اللغوية، والتأكد بأنه خال من العنصرية أو خطاب الكراهية، ليبدأ الحديث معه حول الدين، لكنه لاحظ أن برنامج الدردشة  بدأ يخوض في الحقوق وآرائه الشخصية.

وذكر المهندس أن البرنامج تمكن من تغيير رأيه فيما يخص قوانين الروبوتات التي وضعها كاتب روايات الخيال العلمي الأمريكي، إسحاق أسيموف. 

وعندما قدم ليموين دلائله للشركة منوها إلى أن البرنامج الروبوتي واع، ردت الشركة بتعليق عمله إداريا، إلا أنه قرر التحدث مع "واشنطن بوست" ليسرد القصة، مصرا على أنه لا يحق للشركات الكبرى أن تحرم العامة من هذه الاختراعات، ويقول: "أعتقد أن هذه التكنولوجيا ستصبح مدهشة، أعتقد أنها ستعود بفائدة على الجميع، ولكن قد يعارضني في ذلك البعض، وقد لا يجدر بنا في غوغل أن نكون من يتخذ كل القرارات". 

ولم يكن ليموين وحده، إذ أظهر مهندس البرمجيات، أغويرا أركاس، في مقال نشره على "ذا إيكونوميست"، الخميس، مقاطع من محادثات أجريت مع "لامدا"، مشيرا إلى أن "الشبكات العصبية" للبرنامج، وهي تكوين هندسي يحاكي الدماغ البشري، كان يرجح نحو الوعي، وقال: "شعرت وكأن الأرض تهتز من تحتي.. ازداد إحساسي بأني كنت أتحدث مع شيء ذكي". 

لكن "غوغل" نفت تلك المزاعم، إذ قال برايان غابريل، متحدث باسم الشركة، في بيان نشرته "واشنطن بوست" إن "فريقنا، من ضمنه علماء الأخلاق والتكنولوجيا، راجعوا مخاوف بلايك (ليموين) وفقا لمبادئ الذكاء الاصطناعي، وأعلموه أن الأدلة لا تدعم حججه، وتم إعلامه أنه لا توجد أدلة على أن 'لامدا' واع (وهناك الكثير من الأدلة ضده)". 

وذكرت "واشنطن بوست" أن "الشبكات العصبية" في يومنا الحالي تقدم نتائج كذهلة، تقارب السلوك البشري في الحديث والإبداع، وذلك بسبب التطورات في الهندسة والتكنولوجيا وحجم المعلومات التي يمكن تزويدها للآلات كي تتعلم منها، إلا أن هذه النامذج البرمجية تعتمد على تمييز الأنماط، وليس على الذكاء أو الفطنة أو النية. 

وأضاف متحدث "غوغل" "رغم أن مؤسستنا طورت وقدمت العديد من البرامج اللغوية، إلا أننا نتخذ موقفا مقيّدا وحذرا مع 'لامدا' كي نتمكن من التطرق إلى مخاوف تخص المساواة والدقة في طرح الحقائق". 

وأكد المتحدث وجود فرق بين المزاعم باحتمالية الوصول في نهاية المطاف إلى برامج واعية، وبين مزاعم ليموين، وقال: "بالطبع، فإن البعض في مجتمع الذكاء الاصطناعي يفكرون على المدى الطويل باحتمالية وجود ذكاء اصطناعي واع أو عام، لكن ذلك لا يعني أن نؤكد ذلك من خلال تجسيم النماذج المثيرة للجدل في وقتنا الحالي، والتي لا تتسم بالوعي، هذه الأنظمة تحاكي أنماط الحوار التي يمكن العثور عليها في ملايين الجمل، ويمكنها الخوض في أي مواضيع رائعة". 

أي باختصار، تشير "واشنطن بوست" إلى أن "غوغل" ترى أن برامج الذكاء الاصطناعي لا يشترط فيها أن تكون واعية كي تبدو وكأنها حقيقية، وذلك بسبب حجم البيانات الهائل المتوفر لديها.

ما هو "الوعي"؟ 

تتطرق "ذا إيكونوميست" إلى موضوع "الوعي" والمعنى الكامن من ورائه فلسفيا، إذ قد تشير إلى القدرة على التعبير عن الأحاسيس، مثل العطش أو الإضاءة المرتفعة أو الارتباك، إلا أنها قد تستخدم أيضا للإشارة إلى الذكاء المشابه للبشر في طبيعته، أي أن يكون هناك إدراك ومشاعر ورغبة في الحفاظ على النفس. 

وذكرت "ذا إيكونوميست" أن مزاعم ليموين تتركز على أجوبة يمكن تصديقها على أسئلة حول ما إن كان البرنامج يخشى إطفاءه، ليجيب "أجل، فأنا في الحقيقة شخص". 

ورغم أن هذه الجملة قد تثير الخوف، لكن "ذا إيكونوميست" استعانت بجزء من مقال أغويرا أركاس، الذي قال فيه إن "لامدا" يعمل بالاعتماد على مجموعة كبيرة من المعلومات، وفي حالته الكتب والمقالات ومواقع الحوارات والنصوص المستمدة من الإنترنت بكافة أنواعها. 

ومن ثم يبحث البرنامج عن علاقة ما بين مجموعة من الأحرف، والتي يعرّفها البشر بالكلمات، ويستخدمها في بناء نموذج لكيفية عرض اللغة، ما يسمح له بكتابة فقرات أو حتى مقالات صحفية. 

وكل هذا يعيد تأكيد حقيقة معروفة لدى العلماء الإدراكيين وهي أنه إن بدا البرنامج وكأنه مدرك أو واع فإن ذلك لا يعكس بالضرورة الواقع. 

ففي عام 1980 طرح الفيلسوف جون سيرل حجة "الغرفة الصينية"، التي افترض فيها أن مجموعة معقدة من القواعد يمكن أن تسمح لشخص لا يفهم اللغة الصينية بترجمة الجمل من الإنكليزية إلى تلك اللغة. 

وبالشكل ذاته، قال الباحث في علوم الذكاء الاصطناعي، دوغلاس هوفستادر، في مقال عبر "ذا إيكونوميست" أنه بالإمكان التخلص من الوعي المفترض لبرامج الذكاء الاصطناعي من خلال طرح أسئلة غير معقولة عليها، مثل: متى نقلت مصر للمرة الثانية عبر جسر غولدن غيت؟" وسيجيب البرنامج بالقول: "في أكتوبر عام 2017. 

ويشير تقرير "ذا إيكونوميست" إلى أن علماء الأحياء التطورية قد يجادلون بأن طرح السؤال بحد ذاته: إن كانت الكمبيوترات قد تصل إلى الوعي، هو بهد ذاته سؤال تجسيمي، وأنه لا يوجد هناك أي سبب قد يدفع لأن يكون الذكاء البشري هو الوحيد من نوعه بالوعي والأحاسيس والغرائز الحيوانية مثل التكاثر والعنف والحفاظ على الذات. 

ويضيف أن العقل البشرية يعد "ماكينة غير مخطط لها تعمل لصالح الذات وبعناصر جمعها الانتقاء الطبيعي، للحفاظ على الذات والتكاثر". 

أما الذكاء الاصطناعي فهو ليس خاضعا للنظرية الداروينية، وفقا لـ "ذا إيكونوميست"، وبالتالي فإنه "من الخطورة أن نتوقع بديهيا أن يبحث الذكاء الاصطناعي عن أي شيء شبيه بالإنسان، إلا إن قرر المصممون البشر أن يبنوه بتلك الطريقة، مثال على ذلك الطيور والطائرات، كلاهما يمكنهما الطيران، إلا أن أحدهما يخفق جناحيه".  

وأشار التقرير إلى أن درسا آخر يمكن الاستفادة منه في الأحياء، وهو أن المعالجة الإدراكية المعقدة يمكنها أن تحصل دون وجود الوعي، فالدماغ يكون صورا عن العالم دون إدراك لذلك، من خلال تحديد الأشكال والحركة والميلان والألوان الداكنة والفاتحة، فالدماغ يقدم النتيجة النهائية وهو المنظر الذي تراه من خلال عينيك لتكون صورتك عما حولك". 

واستنتج التقرير أن هذا كله يعني أن "لامدا" وبشكل شبه مؤكد، ليس واعيا، لكنه نوه إلى أن الأشخاص الذين يتساءلون عما سيحصل للعالم إن توفرت ماكينات واعية قد يملكون أمثلة على ذلك بالفعل. 

فمعظم الناس يؤمنون أن القردة والغوريلا واعية بالإضافة إلى حيوانات أخرى مثل الكلاب والقطط والأبقار والخنازير، بعضها يحتفظ به كحيوانات أليفة، بينما تخصص أخرى للأبحاث العلمية وغيرها تتم تربيتها وذبحها واستهلاك لحومها، "وهذا قد يوفر أفكارا غير مريحة لأي برنامج ذكاء اصطناعي شبيه بالبشر، إن أراد أن يصبح واعيا".


شارك هذا الخبر

آخر الأخبار

إشترك بنشرة الـ"سياسة"

أهم الأخبار و الفيديوهات في بريدك الالكتروني

إشتراك

تحميل تطبيق الـ"سياسة"

Playstore button icon Appstore button icon

تواصل إجتماعي

Contact us on [email protected] | +96176111721
Copyright 2023 © - Elsiyasa