سام ألتمان عن مستقبل الذكاء الاصطناعي: "لا نريد أن تسوء الأمور أكثر"

الإثنين، 22 يناير 2024 12:16 م
سام ألتمان عن مستقبل الذكاء الاصطناعي: "لا نريد أن تسوء الأمور أكثر" سام التمان
كتب مؤنس حواس

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
في حلقة نقاش مثيرة للتفكير في المنتدى الاقتصادي العالمي في دافوس، شارك سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أفكاره حول مستقبل الذكاء الاصطناعي (AI) وتأثيره المحتمل على المجتمع البشري، حيث تناولت المحادثة، التي أدارها فريد زكريا من CNN، الكفاءات الأساسية للبشر والتحديات التي يفرضها تطوير الذكاء العام الاصطناعي (AGI).
 
وعندما واجه ألتمان سؤال زكريا حول ما يتفوق فيه البشر عند مقارنتهم بالذكاء الاصطناعي العام، اعترف بأن اللجنة، بما في ذلك هو نفسه، كافحت لتقديم إجابة مقنعة، حيث سلط الضوء على جانب حاسم من الطبيعة البشرية - وهو التسامح، وأشار ألتمان إلى أن البشر يتسامحون مع بعضهم البعض ولكنهم لا يتسامحون عندما يتعلق الأمر بالأخطاء التي ترتكبها الآلات.
 
وباستخدام القيادة الذاتية كمثال، أكد ألتمان على قبول المجتمع للأخطاء التي يرتكبها سائقو سيارات الأجرة من البشر بينما أعرب عن قدر أقل من التسامح مع الأخطاء التي ترتكبها السيارات ذاتية القيادة، ويشكل هذا التناقض في المسامحة تحديًا كبيرًا مع استمرار الذكاء الاصطناعي في التقدم.
 
كما تطرقت المناقشة إلى قدرة الإنسان على فهم مصالح الآخرين وتلبيتها، واقترح ألتمان أن الناس يمتلكون فهمًا فطريًا للمصالح الإنسانية، وهو شعور لم يردده تمامًا زميله عضو اللجنة مارك بينيوف، الرئيس التنفيذي لشركة Salesforce، وتكهن بينيوف أنه في المستقبل القريب، يمكن للذكاء الاصطناعي أن يتولى دور المشرفين، وتوقع احتياجات الجمهور والاستجابة لها دون تدخل بشري.
 
وتحولت المحادثة نحو التوازن الدقيق بين الذكاء الاصطناعي وصنع القرار البشري، وأكد ألتمان أنه على الرغم من التقدم في مجال الذكاء الاصطناعي، فإن البشر سيستمرون في لعب دور حاسم في اتخاذ القرارات المتعلقة بالعالم، واعترف بالطبيعة المتميزة للإدراك ذي الأغراض العامة، معربًا عن اعتقاده بأن البشرية ستحتفظ بسلطة تشكيل المستقبل.
 
وأقر كل من ألتمان وبينيوف بالمخاوف المتزايدة مع تقدم الذكاء الاصطناعي نحو الذكاء الاصطناعي العام، وتوقع ألتمان زيادة التوتر والتوتر في المجتمع مع تقدم تطوير الذكاء الاصطناعي العام، مستشهدًا بتجربته خلال أسبوع عندما تم إقصاؤه لفترة وجيزة من السيطرة على OpenAI، ووصف المشاعر المتزايدة والتوتر المرتبط بالتنقل بمسؤولية في الطريق إلى الذكاء الاصطناعي القوي.
 
وشدد بينيوف في بيان له على أهمية ضمان التطوير المسؤول للذكاء الاصطناعي، قائلًا: "نريد فقط التأكد من عدم تعرض الأشخاص للأذى. لا نريد أن يحدث خطأ ما حقًا، لا نريد ذلك"، استمتع بلحظة هيروشيما."









مشاركة



الرجوع الى أعلى الصفحة