شهد نموذج الذكاء الاصطناعي Claude، الذي تطوره شركة Anthropic، نموًا ملحوظًا خلال الأشهر الأخيرة، حيث تجاوزت إيراداته السنوية المقدرة 30 مليار دولار في مارس 2026، مقارنة بنحو 9 مليارات دولار فقط في عام 2025، هذا النمو السريع يعكس الإقبال الكبير على تقنيات الذكاء الاصطناعي التوليدي، إلا أنه تزامن مع موجة من الانتقادات المتزايدة بشأن تراجع جودة الأداء.
ورغم هذا النجاح التجاري، بدأ عدد من المستخدمين بالتشكيك في قدرة Claude على التعامل مع المهام المعقدة، مشيرين إلى ما وصفوه بـ”تدهور” في مستوى التفكير والتحليل، وهو ما أثار جدلًا واسعًا داخل مجتمع المطورين.
اتهامات مباشرة من AMD: “Claude أصبح كسولًا”
في أحدث الانتقادات، خرجت Stella Laurenzo، مديرة مجموعة الذكاء الاصطناعي في AMD، بتصريحات حادة عبر منشور على GitHub تحت اسم “stellaraccident”. وأكدت أن Claude Code لم يعد يفكر بعمق كما كان في السابق، ووصفت سلوكه بأنه أصبح “كسولًا”.
وأوضحت Laurenzo أن هذا الاستنتاج لم يكن انطباعًا فرديًا، بل جاء بعد تحليل دقيق استند إلى مراجعة أشهر من سجلات النظام، كما أشارت إلى أن جميع الأعضاء الكبار في فريقها شاركوا نفس الملاحظات، مدعومة بتجارب عملية ومواقف متكررة أثناء استخدام النظام.
تحليل آلاف الجلسات يكشف أنماطًا مقلقة
قامت Laurenzo وفريقها بتحليل 6,852 جلسة من Claude Code، شملت استدعاءات الأدوات وكتل التفكير (thinking blocks)، وكشفت النتائج عن مجموعة من الأنماط السلبية، من بينها:
- تجنب تحمل المسؤولية أثناء تنفيذ المهام
- إنهاء عملية التفكير مبكرًا دون الوصول إلى حل فعلي
- طلب أذونات غير ضرورية بدلًا من إكمال المهمة مباشرة
وأكدت أن هذه السلوكيات تعكس تراجعًا واضحًا في مستوى “التفكير العميق”، حيث أصبح النموذج يميل إلى اتخاذ أسهل وأسرع الحلول بدلًا من الأكثر دقة وكفاءة، ووفقًا للتقرير، فإن هذه الحالات لم تكن موجودة في 8 مارس، لكنها ارتفعت تدريجيًا لتصل إلى متوسط 10 حالات يوميًا بحلول نهاية الشهر.
تحديث غامض يقلل من الشفافية
يتزامن هذا التراجع، بحسب Laurenzo، مع تحديث تم إطلاقه في أوائل مارس على Claude Code، تضمن إخفاء محتوى التفكير الداخلي للنموذج، بمعنى آخر، لم يعد المستخدم يرى خطوات التحليل التي يتبعها الذكاء الاصطناعي، بل يكتفي بالنتيجة النهائية فقط.
وترى Laurenzo أن هذا التغيير في مستوى الشفافية قد أدى إلى تقليل عمق التفكير، حيث أصبح النظام يعتمد على الحد الأدنى من التحليل، ويفضل الحلول السريعة بدلًا من الحلول المثلى.
شكاوى سابقة من المستخدمين
لم تكن هذه الانتقادات الأولى من نوعها، إذ سبق أن اشتكى المستخدمون من تقليص الشروحات التفصيلية عند إصدار النسخة 2.1.20 من Claude Code في فبراير الماضي. وأشار العديد منهم إلى أن النظام لم يعد يقدم معلومات كافية حول كيفية تنفيذه للمهام، ما أثار مخاوف بشأن فقدان الشفافية.
أزمة استهلاك التوكنز تزيد من الجدل
تأتي هذه الاتهامات أيضًا بعد أيام من شكاوى متزايدة من المستخدمين بشأن الاستهلاك المرتفع للتوكنز، والذي حال دون الاستفادة الكاملة من الخدمة، وفي 3 أبريل، أوضحت Anthropic أن معظم هذا الاستهلاك المرتفع يعود إلى أنماط استخدام محددة تتطلب كميات كبيرة من التوكنز، مؤكدة أنها تعمل على تحسين الكفاءة.
من جانبها، اقترحت Laurenzo إضافة مستوى خاص بحد أقصى للتفكير (maximum thinking tier) للمطورين الذين يتعاملون مع سير عمل معقدة، مشيرة إلى أن نموذج الاشتراك الحالي لا يميز بين من يحتاج إلى 200 توكن للتفكير ومن يحتاج إلى 20,000 توكن.
AMD تتحول إلى بدائل أخرى
في ختام تصريحاتها، كشفت Laurenzo أن فريقها قرر التحول إلى مزود آخر يقدم جودة أفضل في الأداء، في إشارة واضحة إلى فقدان الثقة في Claude Code في الوقت الحالي.
ويعكس هذا التحول تحديًا حقيقيًا أمام Anthropic، خاصة في ظل المنافسة الشرسة في سوق الذكاء الاصطناعي، حيث لا يقتصر النجاح على الانتشار والإيرادات فقط، بل يعتمد بشكل أساسي على الحفاظ على جودة الأداء وثقة المستخدمين.