تقرير: تقنيات الذكاء الاصطناعي تهدد بإحداث الفوضى فى عام الانتخابات العالمى

الجمعة، 26 يناير 2024 10:00 م
تقرير: تقنيات الذكاء الاصطناعي تهدد بإحداث الفوضى فى عام الانتخابات العالمى ذكاء اصطناعى - تعبيرية
كتب مؤنس حواس

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
يردد البعض أن الذكاء الاصطناعي سيجعل الحياة أسهل، ومع ذلك، فإن الناخبين الذين سيتوجهون إلى صناديق الاقتراع في عام 2024 لديهم أسباب للشك في ذلك، فهذا العام، سيكتشف ما يقرب من نصف سكان العالم مدى الإشكالية التي يشكلها الذكاء الاصطناعي على العملية الديمقراطية بينما يستعدون للتصويت في الانتخابات في الولايات المتحدة، وكذلك في دول مثل بريطانيا والهند والمكسيك.
 
وبحسب موقع businessinsider الأمريكى، فقد واجه الناخبون، المكلفون بمعرفة سياسات المرشحين والحزب، مهمة صعبة بالفعل، والآن يهدد الذكاء الاصطناعي بجعل هذه العملية أكثر صعوبة، حيث كتب إيثان موليك، الأستاذ المشارك في وارتون ‏و هي كلية إدارة الأعمال بجامعة بنسلفانيا ، هذا الشهر: "حتى لو أوقفنا تطوير الذكاء الاصطناعي، فإن مشهد المعلومات بعد عام 2023 لن يكون كما كان من قبل".
 
ولعل التطورات الأخيرة في الذكاء الاصطناعي التوليدي، والتي حفزها ChatGPT من OpenAI، تعني أن التكنولوجيا أصبحت الآن مشكلة أكبر بكثير، واكتشف الناخبون في نيو هامبشاير ذلك بالطريقة الصعبة بعد أن بدأوا في تلقي مكالمات قبل الانتخابات التمهيدية غير الرسمية للديمقراطيين والتي بدا أن جو بايدن يطلب منهم عدم التصويت.

مكالمات آلية مزيفة

افتتحت المكالمات الآلية العميقة، التي أبلغت عنها شبكة إن بي سي نيوز لأول مرة يوم الاثنين، بعبارة بايدن الكلاسيكية "يا لها من مجموعة من المالاركي"، قبل محاولة إبعاد الناس عن اقتراع يوم الثلاثاء، وتعد مكالمة بايدن الآلية ضارة بشكل خاص أيضًا بسبب مدى صعوبة التمييز بين الصوت الحقيقي والمزيف.

وقد وجدت الأبحاث التي تمت مراجعتها من قبل النظراء، والتي نُشرت في أغسطس في مجلة PLOS ONE، أن الناس يجدون صعوبة في اكتشاف الكلام المصطنع أكثر من ربع الوقت، وأشار الباحثون في ذلك الوقت إلى أن "صعوبة اكتشاف التزييف العميق للكلام تؤكد إمكانية إساءة استخدامها".

المملكة المتحدة

كما تسببت تقنية التزييف العميق التي أنشأها الذكاء الاصطناعي في حدوث مشاكل أخرى أيضًا، وفي المملكة المتحدة، وجد بحث أجرته شركة Fenimore Harper Communications أكثر من 100 إعلان فيديو مزيف ينتحل شخصية رئيس الوزراء ريشي سوناك على فيسبوك.

ووفقاً للبحث، فإن الإعلانات المدفوعة - التي تم الكشف عن 143 منها بين 8 ديسمبر و8 يناير - "ربما وصلت إلى أكثر من 400 ألف" شخص، ويبدو أن تمويل الإعلانات يأتي من 23 دولة، بما في ذلك "تركيا وماليزيا والفلبين والولايات المتحدة".
 
وقال تقرير فينيمور هاربر: "يبدو أن هذا هو أول ترويج مدفوع الأجر على نطاق واسع لفيديو مزيف لشخصية سياسية في المملكة المتحدة"، ولم تستجب Meta على الفور لطلب Business Insider للتعليق.
 
على الرغم من أنه ليس من الواضح بالضبط من يقف وراء التزييف العميق في الولايات المتحدة والمملكة المتحدة، فإن الانتشار الأخير للذكاء الاصطناعي يعني أن أي شخص لديه إمكانية الوصول إلى الإنترنت وأداة الذكاء الاصطناعي يمكن أن يسبب بعض الفوضى.
 
وأشار موليك في رسالته الإخبارية إلى كيف أنشأ مقطع فيديو مزيفًا عميقًا في بضع دقائق عن طريق إرسال مقطع فيديو مدته 30 ثانية لنفسه و30 ثانية من صوته إلى شركة الذكاء الاصطناعي الناشئة Heygen.
 
"كان لدي صورة رمزية أستطيع أن أجعلها تقول أي شيء، بأي لغة، لقد استخدمت بعض حركاتي - مثل ضبط الميكروفون - من الفيديو المصدر، ولكنها أنشأت نسخة من صوتي وغيرت حركات فمي، ورمش العين وكل شيء آخر" هو كتب.

جهود شركات التكنولوجيا:

تبذل شركات الذكاء الاصطناعي بعض الجهود لمعالجة المشاكل، ففي وقت سابق من هذا الشهر، كشفت OpenAI عن خططها لمنع إساءة استخدام الذكاء الاصطناعي قبل انتخابات هذا العام.

وتتضمن الخطط استخدام حواجز حماية على أدوات مثل نموذج تحويل النص إلى صورة DALL-E لمنعه من إنشاء صور لأشخاص حقيقيين، بالإضافة إلى حظر استخدام أدوات مثل ChatGPT فى "الحملات السياسية وممارسة الضغط".
 
وقالت OpenAI في إحدى مدوناتها: "إن حماية نزاهة الانتخابات تتطلب التعاون من كل ركن من أركان العملية الديمقراطية، ونريد التأكد من عدم استخدام التكنولوجيا لدينا بطريقة يمكن أن تقوض هذه العملية".
 
وتسعى منظمات أخرى جاهدة لمكافحة انتشار التزييف الناتج عن الذكاء الاصطناعي، وأخبرت ليزا كويست، رئيسة شركة الاستشارات الإدارية في المملكة المتحدة وإيرلندا أوليفر وايمان، زميلتي سبريها سريفاستافا في دافوس عن العمل الذي يقوم به فريق التأثير الاجتماعي التابع لها جنبًا إلى جنب مع المنظمات الخيرية في "مجال السلامة عبر الإنترنت" لتقييد انتشار المعلومات المضللة.
 









مشاركة

اضف تعليقاً واقرأ تعليقات القراء
لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة