مايكروسوفت و OpenAI يعترفان: المتسللون يستخدمون ChatGPT لتحسين الهجمات الإلكترونية

الخميس، 15 فبراير 2024 02:00 ص
مايكروسوفت و OpenAI يعترفان: المتسللون يستخدمون ChatGPT لتحسين الهجمات الإلكترونية مايكروسوفت و OpenAI
كتبت سماح لبيب

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
تكشف مايكروسوفت واوبن ايه اى اليوم أن المتسللين يستخدمون بالفعل نماذج لغوية كبيرة مثل ChatGPT لتحسين هجماتهم الإلكترونية الحالية وتحسينها. 
 
وفى بحث منشور حديثًا، اكتشفت Microsoft وOpenAI محاولات من قبل مجموعات مدعومة من روسيا وكوريا الشمالية وإيران والصين باستخدام أدوات مثل ChatGPT للبحث في الأهداف، وتحسين النصوص البرمجية، والمساعدة في بناء تقنيات الهندسة الاجتماعية.
 
وتقول مايكروسوفت في مدونة : "تقوم مجموعات الجرائم الإلكترونية، والجهات الفاعلة التي تهدد الدول القومية، وغيرهم من الخصوم باستكشاف واختبار تقنيات الذكاء الاصطناعي المختلفة عند ظهورها، في محاولة لفهم القيمة المحتملة لعملياتهم والضوابط الأمنية التي قد يحتاجون إليها للتحايل، وفقا لتقرير theverge.  
 
وتبين أن مجموعة سترونتيوم، المرتبطة بالمخابرات العسكرية الروسية، تستخدم LLMs "لفهم بروتوكولات الاتصالات عبر الأقمار الصناعية، وتقنيات التصوير الراداري، ومعايير تقنية محددة". 
 
وكانت مجموعة القرصنة، المعروفة أيضًا باسم APT28 أو Fancy Bear، نشطة خلال الحرب الروسية في أوكرانيا وشاركت سابقًا في استهداف حملة هيلاري كلينتون الرئاسية في عام 2016.
 
كما تستخدم المجموعة أيضًا LLMs للمساعدة في "مهام البرمجة النصية الأساسية، بما في ذلك معالجة الملفات، واختيار البيانات، والتعبيرات العادية، والمعالجة المتعددة، لأتمتة العمليات الفنية أو تحسينها"، وفقًا لمايكروسوفت.
 
وتستخدم مجموعة القرصنة الكورية الشمالية، المعروفة باسم Thallium، LLMs للبحث عن نقاط الضعف المبلغ عنها علنًا واستهداف المنظمات، للمساعدة في مهام البرمجة النصية الأساسية، وصياغة محتوى لحملات التصيد الاحتيالي. 
 
وتقول مايكروسوفت إن المجموعة الإيرانية المعروفة باسم Curium تستخدم أيضًا LLMs لإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي وحتى تعليمات برمجية لتجنب اكتشافها بواسطة تطبيقات مكافحة الفيروسات، ويستخدم المتسللون الصينيون التابعون للدولة أيضًا LLMs للبحث والبرمجة والترجمات وتحسين أدواتهم الحالية.
 
وكانت هناك مخاوف بشأن استخدام الذكاء الاصطناعي في الهجمات الإلكترونية، لا سيما مع ظهور أدوات الذكاء الاصطناعي مثل WormGPT وFraudGPT للمساعدة في إنشاء رسائل البريد الإلكتروني الضارة وأدوات الاختراق. 
 
كما حذر مسؤول كبير في وكالة الأمن القومي الشهر الماضي من أن المتسللين يستخدمون الذكاء الاصطناعي لجعل رسائل البريد الإلكتروني التصيدية الخاصة بهم تبدو أكثر إقناعًا.
 
ولم تكتشف Microsoft وOpenAI أي "هجمات كبيرة" باستخدام LLMs حتى الآن، لكن الشركات قامت بإغلاق جميع الحسابات والأصول المرتبطة بمجموعات القرصنة هذه. يقول: "في الوقت نفسه، نشعر أنه من المهم نشر هذا البحث لكشف التحركات التدريجية في المراحل المبكرة التي نلاحظ قيام جهات فاعلة معروفة بالتهديد بها، ومشاركة المعلومات حول كيفية حظرنا ومواجهتهم مع مجتمع المدافعين". مايكروسوفت.
 
وفي حين أن استخدام الذكاء الاصطناعي في الهجمات الإلكترونية يبدو محدودًا في الوقت الحالي، إلا أن مايكروسوفت تحذر من حالات الاستخدام المستقبلية مثل انتحال الهوية الصوتية. "يعد الاحتيال المدعوم بالذكاء الاصطناعي مصدر قلق بالغ آخر. 
 
ويعد التركيب الصوتي مثالاً على ذلك، حيث يمكن لعينة صوتية مدتها ثلاث ثوانٍ تدريب النموذج ليبدو مثل أي شخص، وحتى شيء غير ضار مثل تحية البريد الصوتي الخاصة بك يمكن استخدامه للحصول على عينة كافية."
 
وبطبيعة الحال، يستخدم حل Microsoft الذكاء الاصطناعي للرد على هجمات الذكاء الاصطناعي. يقول هوما هاياتيفار، مدير تحليلات الاكتشاف الرئيسي في Microsoft: "يمكن للذكاء الاصطناعي أن يساعد المهاجمين على تحقيق المزيد من التطور في هجماتهم، ولديهم الموارد اللازمة لتنفيذها". "لقد رأينا ذلك مع أكثر من 300 جهة فاعلة للتهديد تتتبعها Microsoft، ونحن نستخدم الذكاء الاصطناعي للحماية والكشف والاستجابة."
 
تقوم Microsoft ببناء Security Copilot ، وهو مساعد جديد للذكاء الاصطناعي تم تصميمه لمحترفي الأمن السيبراني لتحديد الخروقات وفهم الكميات الهائلة من الإشارات والبيانات التي يتم إنشاؤها من خلال أدوات الأمن السيبراني يوميًا بشكل أفضل. وتقوم شركة البرمجيات العملاقة أيضًا بإصلاح أمن برامجها في أعقاب الهجمات السحابية الكبرى على Azure وحتى تجسس المتسللين الروس على المديرين التنفيذيين لشركة Microsoft .









مشاركة

اضف تعليقاً واقرأ تعليقات القراء
لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة