حذرت الدكتورة سارة فوزى، مدرس الإعلام الرقمي، من الاستخدام غير المسؤول لتقنيات الذكاء الاصطناعي، مؤكدة أن المسؤولية تقع على الأفراد والمؤسسات إلى جانب الحاجة لتشريعات واضحة تنظم هذا المجال وتحمي حقوق الملكية الفكرية.
مسؤولية مشتركة بين المستخدمين والمؤسسات والتشريعات
وأوضحت فى تصريحات للتليفزيون المصري، أن تحديد المسؤولية في استخدام الذكاء الاصطناعي لا يقتصر على طرف واحد، بل يمتد ليشمل المستخدمين، والمؤسسات المطورة، والتشريعات القانونية، مشيرة إلى وجود مسودات قوانين في مصر تستهدف تنظيم استخدام الذكاء الاصطناعي وحماية حقوق الملكية الفكرية للمحتوى المولد بهذه التقنيات.
مخاطر مشاركة البيانات الحساسة
وأشارت إلى أن أحد أبرز أخطاء الاستخدام يتمثل في مشاركة بيانات شخصية وحساسة مع تطبيقات الذكاء الاصطناعي، مثل البيانات المالية أو بطاقات الهوية أو المعلومات الخاصة، بدافع تحسين النتائج، محذرة من أن هذه الممارسات قد تعرض المستخدمين لمخاطر كبيرة.
ظاهرة الهلوسة المعلوماتية في الذكاء الاصطناعي
ولفتت إلى ما يعرف بـهلوسات الذكاء الاصطناعي، حيث تقوم النماذج أحيانا بتوليد معلومات غير صحيحة أو مفبركة، لكنها تبدو مقنعة، ما قد يدفع البعض إلى تداولها على أنها حقائق، وهو ما يشكل خطورة كبيرة عند استخدامها في المجالات السياسية أو الاقتصادية أو الاجتماعية.
مسؤولية نشر المعلومات وتداولها
وأكدت أن مسؤولية تداول المعلومات الخاطئة لا تقع فقط على أدوات الذكاء الاصطناعي، بل تمتد أيضا إلى المستخدم الذي ينشرها ووسائل الإعلام التي تعيد نشرها دون تحقق، مشددة على ضرورة سد الفجوة التشريعية في هذا الملف.
قضايا الخصوصية وحقوق الملكية الفكرية
وتطرقت إلى مخاوف تتعلق بخصوصية البيانات، موضحة أن بعض المنصات قد تحتفظ بالمحادثات أو تستخدمها في تطوير أنظمتها، ما يثير تساؤلات حول حقوق الملكية الفكرية وحماية المحتوى الذي ينتجه المستخدمون، سواء كان نصوصا أو صورا أو مواد إعلامية.