جوجل تعطى إجازة إدارية لأحد موظفيها لانتهاكه سرية الذكاء الاصطناعى

الثلاثاء، 14 يونيو 2022 04:00 ص
جوجل تعطى إجازة إدارية لأحد موظفيها لانتهاكه سرية الذكاء الاصطناعى جوجل- أرشيفية
كتبت هبة السيد

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
وضعت جوجل أحد مهندسيها في إجازة إدارية مدفوعة الأجر بزعم انتهاكه لسياسات السرية الخاصة بها بعد أن أصبح قلقًا من أن نظام الدردشة الآلي للذكاء الاصطناعي قد حقق الوعي، حسبما ذكرت صحيفة واشنطن بوست.
 
 يعمل المهندس بليك ليموين في منظمة الذكاء الاصطناعي المسؤولة في جوجل، وكان يختبر ما إذا كان نموذج LaMDA يولد لغة تمييزية أو خطاب كراهية حسبما نقل موقع ذا فيرج التقني.
 
وبحسب ما ورد نشأت مخاوف المهندس من الردود المقنعة التي رأى أن نظام الذكاء الاصطناعي يولدها حول حقوقه وأخلاقيات الروبوتات.
 
في أبريل شارك وثيقة مع المديرين التنفيذيين بعنوان "هل لامدا واعي؟" يحتوي على نسخة من محادثاته مع منظمة العفو الدولية (بعد وضعه في إجازة، نشر ليموين النص عبر حسابه على Medium)، والذي يقول إنه يوضح أنه يجادل "بأنه حساس لأنه يحتوي على مشاعر وعواطف وتجربة ذاتية".
 

هل لامدا صادقة؟

تعتقد جوجل أن إجراءات Lemoine المتعلقة بعمله على LaMDA قد انتهكت سياسات السرية الخاصة بها، وتقرير الواشنطن بوست والجارديان. وبحسب ما ورد دعا محامٍ لتمثيل نظام الذكاء الاصطناعي وتحدث إلى ممثل من اللجنة القضائية في مجلس النواب بشأن الأنشطة غير الأخلاقية المزعومة في جوجل. 
 
في 6 (يونيو) على موقع Medium ، وهو اليوم الذي تم فيه منح Lemoine إجازة إدارية، قال المهندس إنه طلب "قدرًا ضئيلاً من الاستشارات الخارجية للمساعدة في إرشاده في تحقيقاته" وأن قائمة الأشخاص الذين أجرى مناقشات معهم تضمنت موظفين من الحكومة الأمريكية.
 
أعلن عملاق البحث عن LaMDA علنًا في Google I / O العام الماضي، والتي تأمل في تحسين مساعدي الذكاء الاصطناعي للمحادثة وإجراء محادثات أكثر طبيعية.
 
 تستخدم الشركة بالفعل تقنية نموذج لغة مماثلة لميزة الكتابة الذكية في Gmail، أو لاستعلامات محرك البحث.
 
في بيان تم تقديمه إلى WaPo ، قال برايان جابرييل متحدث باسم جوجل إنه "لا يوجد دليل" على أن LaMDA واعي. "قام فريقنا - بما في ذلك علماء الأخلاق والتقنيين - بمراجعة مخاوف بليك وفقًا لمبادئ الذكاء الاصطناعي الخاصة بالشركة وتم إبلاغه أن الأدلة لا تدعم مزاعمه. قيل له إنه لا يوجد دليل على أن لامدا كان واعًا (وهناك الكثير من الأدلة ضده).
 
قال جابرييل: "بالطبع يفكر البعض في مجتمع الذكاء الاصطناعي الأوسع في الإمكانية طويلة المدى للذكاء الاصطناعي الواعي أو العام، لكن ليس من المنطقي القيام بذلك من خلال تجسيد نماذج المحادثة اليوم، والتي ليست واعية"، "تحاكي هذه الأنظمة أنواع التبادلات الموجودة في ملايين الجمل، ويمكنها التعمق في أي موضوع خيالي."
 
قال جابرييل: "لقد تحدث مئات الباحثين والمهندسين مع LaMDA ولا ندرك أن أي شخص آخر يقوم بتأكيدات واسعة النطاق، أو يجسد LaMDA، كما فعل بليك".
 
وافق أستاذ اللغويات الذي قابله WaPo على أنه من الخطأ ربط الردود المكتوبة المقنعة بالحس. قالت الأستاذة بجامعة واشنطن إميلي إم بيندر: "لدينا الآن آلات يمكنها توليد الكلمات بلا تفكير، لكننا لم نتعلم كيف نتوقف عن تخيل العقل الذي يقف وراءها".
 
على الرغم من مخاوفه، قال Lemoine إنه يعتزم مواصلة العمل على الذكاء الاصطناعي في المستقبل، وكتب في تغريدة: "نيتي أن أبقى في مجال الذكاء الاصطناعي سواء أكانت جوجل تعمل أم لا".
 






مشاركة




لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة