Summary: 1. Introduction. – 2. Methodology and Research Approach. – 3. Historical Context and Legislative Evolution. – 4. Role of Statutory Law in Regulating Artificial Intelligence. – 4.1. Statutory Laws and Its Limitations. – 4.2. The Difficulties of Juggling Innovation and Responsibility. – 4.2.1. Privacy & Social Implications. – 4.2.2. Bias and Discrimination Concerns. – 4.2.3 Economic Repercussions. – 5. Limitations of Legal Policies in Regulating Developments of AI. – 6. International Legal Difficulties Arising from The Use of AI. – 7. Conclusions and Suggestions.
مقال بحثي
دور التشريعات القانونية في تنظيم الذكاء الاصطناعي: الموازنة بين الابتكار والمسؤولية
إعداد: عبد السلام سلمي، وبوبال بهاتاشاريا، وسارميستا بهاتاشاريا، وطارق أبو الوفا*
الملخص
الخلفية: يُشكّل الذكاء الاصطناعي تحديًا عميقًا لأنظمة الحوكمة، إذ إن تسارُع دمجه في القطاعات الحيوية يزيد من احتمالات التمييز، وانتهاك الخصوصية، واتساع فجوات المساءلة القانونية. وقد تبيّن أن القوانين التشريعية التقليدية، التي تشكّل الركيزة الأساسية للأنظمة القانونية الوطنية، أصبحت عاجزة على نحو متزايد عن مواكبة الآثار الأخلاقية والاجتماعية والاقتصادية المترتبة على تطور الذكاء الاصطناعي. فطبيعة هذه القوانين المتسمَة بالجمود البنيوي وبطء العملية التشريعية، إلى جانب تشتّت الأطر القانونية بين السلطات القضائية المختلفة، تجعلها غير قادرة على الاستجابة السريعة للتغير المتسارع في التقنيات الخوارزمية. وينتج عن ذلك فراغ تنظيمي واضح في مجالات عالية الخطورة مثل التنبؤ الجرمي، والمراقبة البيومترية، والتشخيص الطبي، والأسلحة ذاتية التشغيل، وهي مجالات قد يؤدي فيها الخطأ أو الانحياز إلى أضرار لا يمكن تداركها. كما أن كثيرًا من القواعد القانونية الحالية وُضعت في زمن لم يتخيّل فيه المشرّع التعقيد والغموض الذي تتسم به أنظمة التعلّم الآلي، ولا قدرتها على العمل بطرق تتجاوز المفاهيم القانونية التقليدية حول النية البشرية، والمسؤولية، والتوقّع المسبق. لذلك، تبرز حاجة ملحّة إلى مزيد من البحث الأكاديمي المتعمّق لفهم التوتر القائم بين الابتكار والتنظيم القانوني في سياق الذكاء الاصطناعي، من خلال استكشاف أطر تشريعية أكثر مرونة، ونماذج حوكمة هجينة تجمع بين القانون والتقنية، مع دمج المبادئ الأخلاقية في تصميم الأنظمة الذكية منذ مراحلها الأولى.
المنهجية: اعتمدت هذه الدراسة على تحليل قانوني مقارن للأطر التشريعية المنظِّمة للذكاء الاصطناعي في عدد من الولايات القضائية الرئيسية تشمل الاتحاد الأوروبي، والولايات المتحدة، والصين، والبرازيل، والمملكة المتحدة، إلى جانب بحث فقهي تحليلي للنصوص التشريعية والأحكام القضائية ذات الصلة. تقوم المنهجية على مراجعة منهجية شاملة للمصادر الأولية مثل: قانون الذكاء الاصطناعي الأوروبي (EU AI Act)، ومسودات قانون المساءلة الخوارزمية الأمريكي (Algorithmic Accountability Act)، والتدابير المؤقتة الصينية لتنظيم الذكاء الاصطناعي التوليدي (GenAI Interim Measures)، إضافة إلى تقييم نوعي للمراجع الثانوية والتقارير المؤسسية التي تناولت قضايا الحوكمة والتنظيم. كما استخدم الباحثون إطار تحليل "القضية – القاعدة – التطبيق – النتيجة" (Issue–Rule–Application–Conclusion) لتقدير فعالية الأطر التنظيمية، مع مقارنة عابرة للأنظمة القانونية بغرض تحديد أوجه الاختلاف في آليات التنفيذ ومعايير المسؤولية القانونية بين الدول محل الدراسة.
النتائج والاستنتاجات: أظهرت نتائج التحليل أن القانون التشريعي يواجه قيودًا جوهرية في قدرته على مواكبة تحديات الذكاء الاصطناعي، وأن هناك تباينًا ملحوظًا بين الأنظمة القانونية المختلفة في تصنيف المخاطر وآليات التنظيم. فعلى سبيل المثال، يعتمد الاتحاد الأوروبي نهجًا استباقيًا (وقائيًا) يقوم على تقييم المطابقة المسبق للمخاطر، في حين تتبع الولايات المتحدة أسلوبًا لاحقًا (علاجيًا) يقوم على تطبيق القوانين القطاعية بعد وقوع الانتهاك. من المهم التأكيد على أن الاعتماد على الأطر التشريعية وحدها لا يحقق التوازن المطلوب بين تشجيع الابتكار وضبط الجوانب الأخلاقية؛ فـالتنظيم المفرط يؤدي إلى خنق البحث والتطوير وإبطاء وتيرة التقدّم التقني، في حين أن التساهل في القواعد القانونية يفتح الباب أمام أضرار اجتماعية جسيمة تمس العدالة والمساءلة والثقة العامة في التكنولوجيا. خلصت الدراسة إلى أن الحوكمة الفعّالة للذكاء الاصطناعي تتطلب اعتماد أطر أخلاقية مكمّلة تُدمج فيها مبادئ الشفافية، ومراجعة الانحيازات، والإشراف البشري المستمر، إلى جانب العمل على توحيد المعايير الدولية الخاصة بالمسؤولية القانونية وبروتوكولات تقييم المخاطر. كما توصي الدراسة بإنشاء بيئات تنظيمية تجريبية مرنة (Regulatory Sandboxes) تسمح باختبار الأنظمة في ظروف واقعية قبل تطبيقها على نطاق واسع، مع تعزيز التعاون بين مختلف الأطراف المعنية — من حكومات ومطورين وباحثين ومؤسسات مجتمع مدني — لضمان تصميم حلول تنظيمية تراعي خصوصية السياقات القانونية والاجتماعية في كل دولة.

