حسام الدين علام

القانون والذكاء الاصطناعي المسؤول في مصر.. من الابتكار إلى المساءلة

الأربعاء، 13 مايو 2026 12:00 ص


دخل الذكاء الاصطناعي إلى صميم الحياة اليومية. حضوره صار واضحًا في الخدمات الحكومية، والتعليم، والصحة، والاتصالات، والقطاع المالي، والإعلام، والصناعة. لذلك صار السؤال القانوني ملحًّا ومباشرًا: كيف تستفيد الدولة المصرية من هذه التقنية الواسعة الأثر، وفي الوقت نفسه تحمي الإنسان وبياناته وحقه في الفهم والاعتراض والمساءلة؟ هنا تبدأ أهمية الحديث عن الذكاء الاصطناعي المسؤول؛ أي ذلك الاستخدام الذي يحقق المنفعة العامة، ويحترم الخصوصية، ويحد من التحيز، ويُبقي القرار التقني داخل إطار قانوني وأخلاقي واضح. وقد أكدت وزارة الاتصالات وتكنولوجيا المعلومات هذا الاتجاه عبر الميثاق المصري للذكاء الاصطناعي المسؤول، كما دعّمته بإصدار النسخة الثانية من الاستراتيجية الوطنية للذكاء الاصطناعي 2025–2023، وهي رؤية تجعل الحوكمة، والبيانات، والبنية التحتية، وبناء القدرات، جزءًا من مسار التطوير نفسه.

 

الأساس الدستوري والتشريعي الحاكم للذكاء الاصطناعي في مصر

يبدأ الأساس من الدستور المصري. فالمادة (٢٣) تنص على أن: "تكفل الدولة حرية البحث العلمي وتشجيع مؤسساته، باعتباره وسيلة لتحقيق السيادة الوطنية، وبناء اقتصاد المعرفة..." وهذا النص يضع الابتكار العلمي في قلب مشروع الدولة الحديثة. ثم تأتي المادة (٣١) لتقرر أن: "أمن الفضاء المعلوماتي جزء أساسي من منظومة الاقتصاد والأمن القومي، وتلتزم الدولة باتخاذ التدابير اللازمة للحفاظ عليه..." وتأتي المادة (٥٧) لتقرر أن: "للحياة الخاصة حرمة، وهي مصونة لا تمس..." وهذه النصوص الثلاثة ترسم الإطار الحاكم بوضوح: تشجيع البحث والتطوير، حماية الفضاء الرقمي، وصون الخصوصية. هذا هو المثلث الدستوري الذي يتحرك فيه أي استخدام جاد للذكاء الاصطناعي في الدولة المصرية.


وعلى المستوى التشريعي، يبرز قانون حماية البيانات الشخصية رقم ١٥١ لسنة ٢٠٢٠ بوصفه الإطار الذي ينظم جمع البيانات الشخصية ومعالجتها والضوابط المرتبطة بها، وقد أوضح مجلس النواب عند مناقشة القانون أنه يستهدف حماية حقوق المواطنين في بياناتهم، ووضع إطار حاكم لجمعها وتخزينها ومعالجتها ونقلها، ورفع مستويات أمن المعلومات. ويأتي إلى جواره قانون مكافحة جرائم تقنية المعلومات رقم ١٧٥ لسنة ٢٠١٨، بما يقرره من حماية للحياة الخاصة والبيانات والمحتوى المعلوماتي والاعتداءات المرتبطة بالفضاء الرقمي. وبهذا المعنى، فإن الذكاء الاصطناعي في مصر لا يتحرك في فراغ تشريعي، وإنما داخل منظومة قانونية قائمة تُعلي من شأن الإنسان وبياناته وأمنه الرقمي.
المعنى العملي للذكاء الاصطناعي المسؤول.


الذكاء الاصطناعي المسؤول يعني استخدام التكنولوجيا على نحو يحقق المنفعة ويُبقي الإنسان في مركز القرار والحماية. المعنى العملي هنا واضح: شفافية أعلى، تفسير أوضح للنتائج، حماية أدق للبيانات، تقليل للتحيز، ومساءلة حقيقية عند الخطأ أو الضرر. وزارة الاتصالات أوضحت عند إطلاق الميثاق المصري للذكاء الاصطناعي المسؤول أن هذا الميثاق يقدم رؤية الدولة للمبادئ التوجيهية المرتبطة بالاستخدام الأخلاقي والمسؤول لهذه التقنيات في المجتمع المصري، وأنه يهدف إلى تمكين المواطن من معرفة الإطار الحاكم، وتوعية الجهات المختلفة بالاعتبارات الأخلاقية الواجب دمجها في التخطيط والتنفيذ. كما حدد الميثاق خمسة مبادئ رئيسة هي: البشرية كمقصد، والشفافية وقابلية التفسير، والعدالة، والمساءلة، والأمن والأمان.

أهمية هذا الطرح أنه يحول المفهوم من عنوان عام إلى قواعد عمل. فالذكاء الاصطناعي المسؤول لا يكتفي بالإعجاب بالكفاءة والسرعة، بل يسأل: ما أثر هذا النظام على الناس؟ من يراجع نتائجه؟ كيف تُستخدم البيانات؟ كيف يمكن الاعتراض إذا وقع ضرر؟ وكيف تُمنع الخوارزمية من إنتاج تمييز أو ظلم أو غموض؟ هذه الأسئلة لا تعطل الابتكار، بل تحسن جودته وتوسع الثقة فيه. والميثاق المصري نفسه قدم أمثلة عملية، منها أن يكون هدف استخدام الذكاء الاصطناعي في الحكومة هو رفاهية المواطن، وأن تُجرى تقييمات للأثر قبل إطلاق المشروعات، وأن تبقى هناك متابعة مؤسسية للامتثال.

 

مسار الدولة المصرية من المبادئ إلى التنفيذ

الخطوة الأهم في التجربة المصرية أنها انتقلت من الحديث العام إلى التخطيط والتنفيذ. وزارة الاتصالات نشرت في يناير ٢٠٢٥ النسخة الثانية من الاستراتيجية الوطنية للذكاء الاصطناعي ٢٠٢٥–٢٠٣٠، وذكرت أن رؤيتها تقوم على إنشاء إطار شامل يدعم مصر الرقمية، ويخدم التنمية الاجتماعية والاقتصادية لصالح جميع المصريين، مع بناء نموذج تأسيسي وطني، وتعزيز الحوكمة، وتوفير بيانات موثوقة، وتحديث البنية التحتية، وبناء منظومة بشرية ومؤسسية قادرة على التطوير. هذه لغة تخطيط دولة، لا لغة متابعة تقنية عابرة.


وفي عام ٢٠٢٦، أظهرت التغطيات الرسمية والمعتبرة أن الملف دخل مرحلة أكثر نضجًا. فبوابة الأهرام نقلت عن جلسات رسمية حديثة أن أولويات تطبيقات الذكاء الاصطناعي في مصر تشمل قطاعات ذات أثر اقتصادي واجتماعي مباشر، مثل الصحة والتعليم والزراعة والخدمات الحكومية، مع الإشارة إلى مشروع كرنك بوصفه نموذجًا لغويًا مصريًا متقدمًا يدعم التطبيقات باللغة العربية ويعزز الابتكار المحلي. كما أشارت التغطية الرسمية الحديثة إلى أن دمج الذكاء الاصطناعي في المؤسسات والخدمات العامة بات واحدًا من أسرع تحولات العصر الرقمي. هذه المؤشرات تكشف أن مصر تتعامل مع الذكاء الاصطناعي بوصفه ملف تنمية وقدرة وطنية، مع الحرص على إبقاءه داخل إطار من الحوكمة والمسؤولية.

 

المخاطر القانونية والإنسانية في غياب المساءلة

الخطر الحقيقي لا يكمن في الذكاء الاصطناعي بوصفه تقنية، بل في استخدامه من غير قواعد واضحة. حين تدخل الخوارزميات إلى التوظيف، أو التقييم، أو الائتمان، أو الرعاية الصحية، أو الخدمات الحكومية، فإنها قد تؤثر مباشرة في فرص الناس وحقوقهم ومسارات حياتهم. هنا يبرز السؤال الحاسم: من المسؤول إذا أخطأ النظام؟ من يشرح القرار؟ كيف يثبت المتضرر أن الضرر وقع بسبب خوارزمية منحازة أو غير دقيقة؟ وأين يقف حق الفرد في المراجعة أو الاعتراض؟ هذه هي الأسئلة التي تجعل القانون حاضرًا منذ البداية، لا بعد وقوع الأزمة فقط.

وتزداد حساسية المسألة لأن الذكاء الاصطناعي يعتمد على البيانات. كل توسع في استخدامه يعني توسعًا في جمع البيانات وتحليلها وربطها واتخاذ قرارات في ضوئها. لذلك تصبح الخصوصية، والموافقة، والأمن، وجودة البيانات، وحدود استخدامها، مسائل قانونية مباشرة. وهنا تظهر أهمية الربط بين الميثاق المسؤول، وقانون حماية البيانات الشخصية، وقانون مكافحة جرائم تقنية المعلومات. فالهدف ليس إبطاء التطور، وإنما منع أن يتحول التطور إلى أداة مبهمة تمس الإنسان من غير شفافية أو ضمانة أو طريق واضح للمساءلة.

 

أولويات المرحلة المقبلة في مصر

المرحلة المقبلة تحتاج إلى خطوات مباشرة وواضحة. أولها: تحويل المبادئ العامة إلى إجراءات تشغيلية أكثر تفصيلًا، خاصة في الأنظمة الحكومية التي تؤثر في المواطنين وبياناتهم وحقوقهم. ثانيها: استكمال بنية حوكمة البيانات على نحو يحقق وضوحًا أكبر في الاختصاصات والضوابط. ثالثها: توسيع الثقافة العامة حول الذكاء الاصطناعي المسؤول، حتى يعرف المواطن ما له وما عليه، ويفهم الطالب والموظف والأسرة معنى الشفافية والمراجعة والخصوصية والمساءلة في هذا المجال. رابعها: دعم البحث العلمي التطبيقي وبناء القدرات الوطنية، حتى تتحول مصر من سوق لاستخدام التطبيقات إلى بيئة قادرة على إنتاج النماذج والحلول. وخامسها: توسيع الحوار بين القانونيين والمطورين وصناع السياسات، لأن الحوكمة الجيدة تُصاغ حين تجتمع الخبرة القانونية مع الفهم التقني.


وعلى المستوى العملي، يحتاج المواطن إلى أن يطرح أسئلة بسيطة وحاسمة: كيف تُستخدم بياناتي؟ من يراجع القرار؟ هل يوجد تدخل بشري؟ هل يمكنني الاعتراض؟ ويحتاج المطور إلى أن يعتبر التفسير والعدالة والأمان جزءًا من جودة النظام نفسه. ويحتاج القطاع الخاص إلى أن يفهم أن الثقة أصل اقتصادي في العصر الرقمي، وأن المستقبل سيكون أكثر ميلًا إلى الأنظمة الشفافة والمنضبطة. كما تحتاج المؤسسات العامة إلى أن تجعل تقييم الأثر، والمراجعة، والتدريب، والتوعية، مكونات أساسية في كل مشروع ذكاء اصطناعي، منذ لحظة التصميم حتى التشغيل.

وفي الختام، فإن الذكاء الاصطناعي المسؤول في مصر يمثل اختبارًا مهمًا لقدرة القانون على مواكبة الابتكار بوعي وثقة. المعادلة الصحيحة واضحة: تقنية متقدمة، وبيانات محمية، وقرار قابل للفهم، ومسؤولية قائمة عند الخطأ. هذا هو الطريق الذي يجعل الابتكار رصيدًا للتنمية لا مصدرًا جديدًا للغموض أو التفاوت أو الانكشاف. وكلما ترسخ هذا الفهم، صار الذكاء الاصطناعي أداة بناء وطنية حقيقية، وصارت المساءلة جزءًا من نضجه واستقراره، لا عبئًا عليه.




أخبار اليوم السابع على Gogole News تابعوا آخر أخبار اليوم السابع عبر Google News
قناة اليوم السابع على الواتساب اشترك في قناة اليوم السابع على واتساب



الرجوع الى أعلى الصفحة