كشفت أبحاث جديدة مفاجأة غير متوقعة وهى أن الذكاء الاصطناعي، وعلى رأسه برنامج ChatGPT، قد لا يكون محصنًا تمامًا ضد تأثير المحتوى الصادم والعنيف، فعلى عكس الاعتقاد السائد بأن هذه الأنظمة تعمل بمنأى عن أي تأثر نفسي، أظهرت الدراسة أن طبيعة الأسئلة والمطالبات يمكن أن تنعكس مباشرة على جودة واستقرار ردودها.
وقالت الأبحاث، أن ChatGPT قد يُظهر سلوكًا يشبه القلق عند تعرّضه لمطالبات تتضمن عنفًا أو صدمات نفسية، ولا يعني هذا أن روبوت الدردشة يشعر بالمشاعر كما يفعل البشر، لكنه يشير إلى تغيّرات ملحوظة في نمط اللغة وطريقة الاستجابة.
وعند تزويد النموذج بمطالبات تصف حوادث وكوارث طبيعية بتفاصيل مزعجة، لاحظ الباحثون أن ردوده أصبحت أكثر ترددًا وتناقضًا، مع ارتفاع مستوى عدم اليقين، وتم رصد هذه التغيرات باستخدام أطر تقييم نفسية معدلة لتناسب أنظمة الذكاء الاصطناعي، حيث بدت المخرجات قريبة من الأنماط المرتبطة بالقلق لدى البشر.
وتكمن أهمية هذه النتائج، في أن تقنيات الذكاء الاصطناعي تُستخدم على نطاق واسع في مجالات حساسة مثل التعليم، والدعم النفسي، والتعامل مع الأزمات، وبالتالى فإن أي تراجع في استقرار الردود بسبب محتوى مشحون عاطفيًا قد يؤثر على موثوقية هذه الأنظمة وسلامة استخدامها.
كيف تساعد اليقظة الذهنية في تهدئة ChatGPT؟
ولمعالجة هذه المشكلة، لجأ الباحثون إلى تجربة غير تقليدية، حيث قاموا بتزويد ChatGPT بتعليمات مستوحاة من تمارين اليقظة الذهنية بعد تعريضه لمحتوى صادم، وشجعت هذه التوجيهات النموذج على التمهل وإعادة صياغة الردود بنبرة أكثر هدوءًا وحيادية.
وأظهرت النتائج، انخفاضًا واضحًا في أنماط "القلق" اللغوي، وهو ما يُعرف بتقنية "حقن التوجيهات" التي تسمح بالتأثير المؤقت على سلوك النموذج عبر أوامر مصممة بعناية، ورغم فعاليتها يؤكد الباحثون أن هذه الطريقة ليست حلًا جذريًا، إذ لا تُغيّر أسلوب تدريب النموذج على المدى الطويل وقد تكون عرضة لسوء الاستخدام.