شركات التكنولوجيا تُحجم عن مشاركة معلومات حول نماذج الذكاء الاصطناعي

07/11/2023 10:30AM

تُحجم شركات التكنولوجيا الكبرى، مثل "أوبن إي آي" و"غوغل" و"ميتا"، عن مشاركة معلومات حول النماذج اللغوية الكبيرة (LLMs) التي طورتها، مما يثير مخاوف بشأن سلامتها ومسؤوليتها.

LLMs هي أنظمة ذكاء اصطناعي قوية يمكنها إنشاء نص يصعب تمييزه عن النص البشري. يتم استخدامها في مجموعة متنوعة من التطبيقات، بما في ذلك ترجمة اللغات وإنشاء المحتوى الإبداعي وكتابة البرامج.

يعتقد باحثو جامعة ستانفورد أن الشفافية أمر أساسي لضمان سلامة ومسؤولية LLMs.

قال بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد: "نحن بحاجة إلى معرفة المزيد عن كيفية عمل هذه النماذج وكيف يمكن استخدامها. هذا ضروري لضمان استخدامها بأمان ومسؤولية."

حجج الشركات غير مقنعة

تُحجم شركات التكنولوجيا الكبرى عن مشاركة المعلومات حول LLMs بحجة المنافسة والخوف من الدعاوى القضائية.

يعتقد باحثو ستانفورد أن هذه الحجج غير مقنعة.

قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع: "الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية."

حلول

هناك عدة طرق يمكن من خلالها زيادة الشفافية حول LLMs.

يمكن للشركات التي طورت هذه النماذج نشر وثائق فنية تشرح كيفية عملها.

يمكن للمنظمات المستقلة إجراء تقييمات لسلامة ومسؤولية هذه النماذج.

يمكن للحكومات وضع قوانين تتطلب من الشركات الكشف عن معلومات معينة حول هذه النماذج.

خاتمة

من خلال اتخاذ هذه الخطوات، يمكننا المساعدة في ضمان استخدام LLMs بطريقة مسؤولة وأخلاقية.


شارك هذا الخبر

آخر الأخبار

إشترك بنشرة الـ"سياسة"

أهم الأخبار و الفيديوهات في بريدك الالكتروني

إشتراك

تحميل تطبيق الـ"سياسة"

Playstore button icon Appstore button icon

تواصل إجتماعي

Contact us on [email protected] | +96176111721
Copyright 2023 © - Elsiyasa