كانت صفحة سياسات الاستخدام الخاصة بـ OpenAI تنص صراحةً على أن الشركة تحظر استخدام تقنيتها للأغراض "العسكرية والحربية قبل بضعة أيام فقط، وقد تم حذف هذا السطر منذ ذلك الحين.
كما لاحظت The Intercept لأول مرة، قامت الشركة بتحديث الصفحة في 10 يناير "لتكون أكثر وضوحًا وتقدم المزيد من الإرشادات الخاصة بالخدمة"، كما ينص سجل التغيير، وفقا لتقرير engadget.
ولا تزال تحظر استخدام نماذجها اللغوية الكبيرة (LLMs) لأي شيء يمكن أن يسبب الضرر، وتحذر الناس من استخدام خدماتها "لتطوير الأسلحة أو استخدامها"، ومع ذلك، قامت الشركة بإزالة اللغة المتعلقة بـ "الجيش والحرب".
وفي حين أننا لم نرى بعد آثاره على أرض الواقع، فإن هذا التغيير في الصياغة يأتي في الوقت الذي تظهر فيه الوكالات العسكرية حول العالم اهتمامًا باستخدام الذكاء الاصطناعي.
إن الإشارة الصريحة لـ "الجيش والحرب" في قائمة الاستخدامات المحظورة تشير إلى أن OpenAI لا يمكنها العمل مع الوكالات الحكومية مثل وزارة الدفاع، التي تقدم عادةً صفقات مربحة للمقاولين.
وفي الوقت الحالي، لا يوجد لدى الشركة منتج يمكن أن يقتل أو يسبب ضررًا جسديًا لأي شخص بشكل مباشر، ولكن كما قالت The Intercept، يمكن استخدام تقنيتها في مهام مثل كتابة التعليمات البرمجية ومعالجة أوامر الشراء لأشياء يمكن استخدامها لقتل الناس.
وعندما سُئل المتحدث باسم OpenAI عن التغيير في صياغة سياستها، قال نيكو فيليكس للنشرة إن الشركة "تهدف إلى إنشاء مجموعة من المبادئ العالمية التي يسهل تذكرها وتطبيقها، خاصة وأن أدواتنا تُستخدم الآن عالميًا من قبل المستخدمين العاديين الذين يمكنه الآن أيضًا إنشاء GPTs."
وأوضح فيليكس أن "مبدأ مثل "لا تؤذي الآخرين" واسع النطاق ولكن يسهل فهمه وذو صلة في العديد من السياقات"، مضيفًا أن OpenAI "استشهدت على وجه التحديد بالأسلحة وإصابات الآخرين كأمثلة واضحة".
ومع ذلك، ورد أن المتحدث رفض توضيح ما إذا كان حظر استخدام التكنولوجيا "لإيذاء" الآخرين يشمل جميع أنواع الاستخدام العسكري خارج نطاق تطوير الأسلحة.
تم أضافة تعليقك سوف يظهر بعد المراجعة