أعلنت شركة OpenAI تشكيل فريق جديد لتقييم نماذج الذكاء الاصطناعي للحماية مما تصفه بـ "المخاطر الكارثية"، وذكر موقع "تك كرانش" التقني أن مسؤوليات الفريق هي التتبع والتنبؤ والحماية من مخاطر أنظمة الذكاء الاصطناعي المستقبلية، بدءًا من قدرتها على إقناع البشر وخداعهم (كما هو الحال في التصيد الاحتيالي) وحتى قدراتها الضارة على توليد التعليمات البرمجية.
وسيعمل الفريق أيضًا على التخفيف من "التهديدات الكيميائية والبيولوجية والإشعاعية"، بالإضافة إلى "النسخ المستقل" أو قيام الذكاء الاصطناعي بتكرار نفسه ، وتشمل بعض المخاطر الأخرى التي سيتناولها فريق الاستعداد قدرة الذكاء الاصطناعي على خداع البشر، فضلاً عن تهديدات الأمن السيبرانى، وفقا لتقرير theverge.
وقالت الشركة:" نحن نعتقد أن نماذج الذكاء الاصطناعي الحدودية، والتي ستتجاوز القدرات الموجودة حاليًا في النماذج الحالية الأكثر تقدمًا، لديها القدرة على إفادة البشرية جمعاء،" وكتب OpenAI في التحديث "لكنها تشكل أيضًا مخاطر شديدة بشكل متزايد."
وسيقود ألكسندر مادري، الفريق، وتشير OpenAI إلى أن الفريق سيقوم أيضًا بتطوير والحفاظ على "سياسة تطوير مستنيرة للمخاطر"، والتي ستحدد ما تفعله الشركة لتقييم نماذج الذكاء الاصطناعي ومراقبتها.
وحذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من احتمال وقوع أحداث كارثية ناجمة عن الذكاء الاصطناعي ، و في مايو أصدر ألتمان وغيره من الباحثين البارزين في مجال الذكاء الاصطناعي بيانا من 22 كلمة مفاده أن "التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي ينبغي أن يكون أولوية عالمية"، وخلال مقابلة أجريت معه في لندن، اقترح ألتمان أيضًا أن تتعامل الحكومات مع الذكاء الاصطناعي "بنفس القدر من الجدية" الذي تتعامل به مع الأسلحة النووية.
تم أضافة تعليقك سوف يظهر بعد المراجعة