أكرم القصاص - علا الشافعي

الاتحاد الأوروبي يدرس فرض قواعد لـChatGPT ضمن تنظيم الذكاء الاصطناعى الأكثر صرامة

السبت، 04 فبراير 2023 02:00 م
الاتحاد الأوروبي يدرس فرض قواعد لـChatGPT ضمن تنظيم الذكاء الاصطناعى الأكثر صرامة ذكاء اصطناعى
كتب مؤنس حواس

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
قال رئيس الصناعة فى الاتحاد الأوروبي، تيري بريتون، إن قواعد الذكاء الاصطناعي الجديدة المقترحة ستهدف إلى معالجة المخاوف بشأن المخاطر المتعلقة ببرنامج الدردشة ChatGPT وتكنولوجيا الذكاء الاصطناعي، وذلك في التعليقات الأولى على التطبيق من قبل مسئول كبير في بروكسل.
 
فبعد شهرين فقط من إطلاقه، تم تصنيف ChatGPT - الذي يمكنه إنشاء مقالات ومقالات ونكات وحتى شعر استجابة للمطالبات - على أنه تطبيق المستهلك الأسرع نموًا في التاريخ.
 
وأثار بعض الخبراء مخاوف من أن الأنظمة التي تستخدمها مثل هذه التطبيقات يمكن أن يساء استخدامها في السرقة الأدبية والاحتيال ونشر المعلومات الخاطئة، حتى في الوقت الذي يصفه فيه أبطال الذكاء الاصطناعي بأنه قفزة تكنولوجية.
 
وقال بريتون إن المخاطر التي يشكلها ChatGPT - من بنات أفكار شركة OpenAI ، وهي شركة خاصة مدعومة من شركة Microsoft Corp - وأنظمة الذكاء الاصطناعي أكدت الحاجة الملحة للقواعد التي اقترحها العام الماضي في محاولة لوضع المعيار العالمي للتكنولوجيا، والقواعد قيد المناقشة حاليا في بروكسل.
 
وقال لـ رويترز في تعليقات مكتوبة: "كما أوضحت ChatGPT، يمكن لحلول الذكاء الاصطناعي أن توفر فرصًا رائعة للشركات والمواطنين، لكنها قد تشكل أيضًا مخاطر، ولهذا السبب نحتاج إلى إطار تنظيمي قوي لضمان الذكاء الاصطناعي الموثوق به استنادًا إلى بيانات عالية الجودة".
 
وقالت شركة OpenAI على موقعها الإلكتروني إنها تهدف إلى إنتاج ذكاء اصطناعي "يفيد البشرية جمعاء" في الوقت الذي تحاول فيه بناء ذكاء اصطناعي آمن ومفيد، وبموجب مسودة قواعد الاتحاد الأوروبي، يعتبر ChatGPT نظام ذكاء اصطناعي للأغراض العامة يمكن استخدامه لأغراض متعددة بما في ذلك الأغراض عالية المخاطر مثل اختيار المرشحين للوظائف وتسجيل الائتمان.
 
يريد Breton أن تتعاون OpenAI بشكل وثيق مع مطوري أنظمة الذكاء الاصطناعي عالية المخاطر لتمكين امتثالهم لقانون الذكاء الاصطناعي المقترح، وقال شريك في شركة محاماة أمريكية: "إن حقيقة أن الذكاء الاصطناعي التوليدي قد تم تضمينه حديثًا في التعريف يظهر السرعة التي تتطور بها التكنولوجيا وأن المنظمين يكافحون لمواكبة هذه الوتيرة".

مخاوف "عالية المخاطر"

تشعر الشركات بالقلق من تصنيف تقنيتها ضمن فئة الذكاء الاصطناعي "عالية المخاطر" مما قد يؤدي إلى متطلبات امتثال أكثر صرامة وتكاليف أعلى ، وفقًا لمسؤولين تنفيذيين في العديد من الشركات المشاركة في تطوير الذكاء الاصطناعي، وأظهر مسح أجرته الهيئة الصناعية التطبيقية للذكاء الاصطناعي أن 51٪ من المستجيبين يتوقعون تباطؤًا في أنشطة تطوير الذكاء الاصطناعي نتيجة لقانون الذكاء الاصطناعي.
 
وكتب رئيس مايكروسوفت براد سميث في مدونة يوم الأربعاء أن لوائح منظمة العفو الدولية الفعالة يجب أن تركز على التطبيقات الأكثر خطورة، وقال: "هناك أيام أشعر فيها بالتفاؤل ولحظات أشعر فيها بالتشاؤم بشأن كيفية استخدام البشرية للذكاء الاصطناعي".
 
قال بريتون إن المفوضية الأوروبية تعمل عن كثب مع مجلس الاتحاد الأوروبي والبرلمان الأوروبي لزيادة توضيح القواعد في قانون الذكاء الاصطناعي لأنظمة الذكاء الاصطناعي للأغراض العامة، وقال: "سيحتاج الناس إلى إعلامهم بأنهم يتعاملون مع روبوت محادثة وليس مع إنسان. الشفافية مهمة أيضًا فيما يتعلق بخطر التحيز والمعلومات الخاطئة".
 
وتحتاج نماذج الذكاء الاصطناعي التوليدية إلى التدريب على كمية هائلة من النصوص أو الصور لإنشاء استجابة مناسبة تؤدي إلى مزاعم انتهاكات حقوق النشر، وقال بريتون إن المناقشات المقبلة مع المشرعين حول قواعد الذكاء الاصطناعي ستغطي هذه الجوانب.
 
دفعت المخاوف بشأن الانتحال من قبل الطلاب بعض المدارس العامة الأمريكية وجامعة العلوم الفرنسية إلى حظر استخدام ChatGPT.
 









مشاركة

اضف تعليقاً واقرأ تعليقات القراء
لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة