07/11/2023 10:30AM
تُحجم شركات التكنولوجيا الكبرى، مثل "أوبن إي آي" و"غوغل" و"ميتا"، عن مشاركة معلومات حول النماذج اللغوية الكبيرة (LLMs) التي طورتها، مما يثير مخاوف بشأن سلامتها ومسؤوليتها.
LLMs هي أنظمة ذكاء اصطناعي قوية يمكنها إنشاء نص يصعب تمييزه عن النص البشري. يتم استخدامها في مجموعة متنوعة من التطبيقات، بما في ذلك ترجمة اللغات وإنشاء المحتوى الإبداعي وكتابة البرامج.
يعتقد باحثو جامعة ستانفورد أن الشفافية أمر أساسي لضمان سلامة ومسؤولية LLMs.
قال بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد: "نحن بحاجة إلى معرفة المزيد عن كيفية عمل هذه النماذج وكيف يمكن استخدامها. هذا ضروري لضمان استخدامها بأمان ومسؤولية."
حجج الشركات غير مقنعة
تُحجم شركات التكنولوجيا الكبرى عن مشاركة المعلومات حول LLMs بحجة المنافسة والخوف من الدعاوى القضائية.
يعتقد باحثو ستانفورد أن هذه الحجج غير مقنعة.
قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع: "الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية."
حلول
هناك عدة طرق يمكن من خلالها زيادة الشفافية حول LLMs.
يمكن للشركات التي طورت هذه النماذج نشر وثائق فنية تشرح كيفية عملها.
يمكن للمنظمات المستقلة إجراء تقييمات لسلامة ومسؤولية هذه النماذج.
يمكن للحكومات وضع قوانين تتطلب من الشركات الكشف عن معلومات معينة حول هذه النماذج.
خاتمة
من خلال اتخاذ هذه الخطوات، يمكننا المساعدة في ضمان استخدام LLMs بطريقة مسؤولة وأخلاقية.
شارك هذا الخبر
متى تقف الحرب؟ هذا ما سمعه هوكشتاين في إسرائيل وهذه هي الاعتراضات
أدرعي يُصدر إنذارًا لسكان الضاحية: أخلوا فورًا
ارتقاء اثنين من المسعفين في دير قانون رأس العين
في الاستقلال: رؤية للسلام والاستقرار الدائمين في لبنان
إسرائيل لا تريد الاستعجال... تقارير عبرية تتحدث عن مغادرة هوكشتاين تل أبيب
بعد تنظيمهم مسيرات مسلحة.. الجيش يوقف ٥ أشخاص
آليات الجيش الإسرائيلي تتقدم إلى دير ميماس
وسائل إعلام إسرائيلية: استطلاع رأي لـ"معاريف": 57% من الإسرائيليين يؤيدون التسوية مع لبنان
آخر الأخبار
أهم الأخبار و الفيديوهات في بريدك الالكتروني
إشتراك
Contact us on
[email protected] | +96176111721
Copyright 2023 © - Elsiyasa