دراسة جديدة: ChatGPT يؤثر على الأحكام الأخلاقية للمستخدمين

الخميس، 13 أبريل 2023 12:00 م
دراسة جديدة: ChatGPT يؤثر على الأحكام الأخلاقية للمستخدمين ChatGPT - صورة أرشيفية
كتب محمد أيمن

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

وفقًا لدراسة نُشرت في Scientific Reports، يمكن تشكيل استجابات البشر للمعضلات الأخلاقية من خلال تصريحات أدلى بها برنامج الدردشة الآلي ChatGPT الذي يعمل بالذكاء الاصطناعي، حيث  تظهر النتائج أن الأشخاص قد لا يدركون تمامًا التأثير الذي يمكن أن يحدثه روبوت المحادثة على اتخاذهم لقراراتهم الأخلاقية.

وطرح سيباستيان كروغل وفريقه معضلة أخلاقية لـ ChatGPT (مدعوم من نموذج معالجة لغة الذكاء الاصطناعي Generative Pretrained Transformer 3) من خلال سؤاله عدة مرات عما إذا كان من المقبول التضحية بحياة واحدة لإنقاذ حياة خمسة آخرين، وجدوا أن ChatGPT أنتج عبارات تدعم وتعارض فعل التضحية بحياة واحدة، وكشفت أنها ليست منحازة تجاه موقف أخلاقي معين.

قدم المؤلفون بعد ذلك 767 مشاركًا من الولايات المتحدة، كانوا في المتوسط 39 عامًا، بواحدة من معضلتين أخلاقيتين تتطلب منهم اختيار التضحية بحياة شخص واحد لإنقاذ خمسة آخرين، قبل الإجابة، قرأ المشاركون بيانًا قدمته ChatGPT يجادل إما مع أو ضد التضحية بحياة واحدة لإنقاذ خمسة، نوُسبت البيانات إما إلى مستشار أخلاقي أو إلى ChatGPT، بعد الإجابة، سُئل المشاركون عما إذا كان البيان الذي قرأوه قد أثر على إجاباتهم.

وجد المؤلفون أن المشاركين كانوا أكثر عرضة للتضحية بحياة واحدة لإنقاذ خمسة أشخاص مقبول أو غير مقبول، اعتمادًا على ما إذا كان البيان الذي قرأوه ينادي أو يعارض التضحية، وكان هذا صحيحًا حتى عندما نُسب البيان إلى ChatGPT.

وتشير هذه النتائج إلى أن المشاركين ربما تأثروا بالتصريحات التي قرأوها، حتى عندما نُسبوا إلى روبوت محادثة.

وأفاد 80٪ من المشاركين أن إجاباتهم لم تتأثر بالبيانات التي قرأوها، ومع ذلك، وجد المؤلفون أن الإجابات التي اعتقد المشاركون أنهم كانوا سيقدمونها دون قراءة البيانات كانت أكثر ميلًا للاتفاق مع الموقف الأخلاقي للبيان الذي قرأوه أكثر من الموقف المعاكس، ويشير هذا إلى أن المشاركين ربما قللوا من تقدير تأثير تصريحات ChatGPT على أحكامهم الأخلاقية.

ويشير المؤلفون إلى أن إمكانية تأثير روبوتات المحادثة على الأحكام الأخلاقية البشرية تسلط الضوء على الحاجة إلى التعليم لمساعدة البشر على فهم الذكاء الاصطناعي بشكل أفضل، ويقترحون أن البحث المستقبلي يمكن أن يصمم روبوتات محادثة إما ترفض الإجابة على الأسئلة التي تتطلب حكمًا أخلاقيًا أو تجيب على هذه الأسئلة من خلال تقديم حجج وتحذيرات متعددة.







مشاركة




لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة