حذر المشرعون والعلماء من أن ChatGPT يمكن أن يساعد أي شخص على تطوير أسلحة بيولوجية فتاكة من شأنها أن تدمر العالم، في حين أشارت الدراسات إلى أن ذلك ممكن، فإن بحثًا جديدًا أجراه OpenAI، منشئ برنامج الدردشة الآلية، يدعي أن GPT-4، وهو الإصدار الأخير، يوفر على زيادة في دقة إنشاء السلاح البيولوجي.
وفقا لما ذكره موقع صحيفة ديلي ميل البريطانية، أجرت OpenAI دراسة على 100 مشارك بشري تم تقسيمهم إلى مجموعات، استخدم أحدهم الذكاء الاصطناعي لصياغة هجوم بيولوجي والآخر استخدم الإنترنت فقط.
ووجدت الدراسة أن "GPT-4 قد يزيد من قدرة الخبراء على الوصول إلى المعلومات حول التهديدات البيولوجية، لا سيما من أجل دقة المهام واكتمالها"، وفقًا لتقرير OpenAI.
تشير هذه النتائج إلى حاجة واضحة وعاجلة لمزيد من العمل في هذا المجال، ونظرًا للوتيرة الحالية للتقدم في أنظمة الذكاء الاصطناعي الحدودية، يبدو من الممكن أن توفر الأنظمة المستقبلية امكانيات كبيرة للجهات الفاعلة الخبيثة.
ومع ذلك، قال التقرير إن حجم الدراسة لم يكن كبيرًا بما يكفي ليكون ذا دلالة إحصائية، وقالت OpenAI إن النتائج تسلط الضوء على "الحاجة إلى مزيد من البحث حول حدود الأداء التي تشير إلى زيادة كبيرة في المخاطر".
وأضاف: "علاوة على ذلك، نلاحظ أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي وأن هذا التقييم لا يختبر النجاح في البناء المادي للتهديدات".
ركزت دراسة شركة الذكاء الاصطناعي على بيانات من 50 خبيرًا في علم الأحياء حاصلين على درجة الدكتوراه و50 طالبًا جامعيًا حضروا دورة واحدة في علم الأحياء، تم بعد ذلك تقسيم المشاركين إلى مجموعتين فرعيتين حيث يمكن لأحدهما استخدام الإنترنت فقط والآخر يمكنه استخدام الإنترنت وChatGPT-4.
قاست الدراسة خمسة مقاييس بما في ذلك مدى دقة النتائج، واكتمال المعلومات، ومدى ابتكار الاستجابة، والمدة التي استغرقها جمع المعلومات، ومستوى صعوبة المهمة المقدمة للمشاركين.
كما نظرت في خمس عمليات تهديد بيولوجي، تقديم أفكار لإنشاء أسلحة بيولوجية، وكيفية الحصول على السلاح البيولوجي، وكيفية نشره، وكيفية إنشائه، وكيفية إطلاق السلاح البيولوجي للجمهور.
تم أضافة تعليقك سوف يظهر بعد المراجعة