التقرير يذكر أن الولايات المتحدة تقود العالم بـــ40 نموذجاً متقدماً للذكاء الاصطناعي، متفوقة على الصين والاتحاد الأوروبي، لكنها تتأخر في عدد براءات الاختراع، إذ تهيمن الصين على 70 في المئة من براءات الذكاء الاصطناعي عالمياً، مما يفتح سؤالاً كبيراً حول من يملك المستقبل؟ فهل هو من يبني الأفكار؟ أم من يسجلها؟
في عالم تطلق فيه الخوارزميات العنان لخيال لم يعرف حداً، ها هي حكومات الدول الكبرى، كل بطريقتها، بدأت تنظم وتشرع قوانينها لكبح جماح هذا التسابق المحموم حتى لا تخرج الأمور عن سيطرة الدول، فبعضهم يتعامل معه كمسألة سيادة وأمن قومي، فالذكاء الاصطناعي الذي أصبح كالخيل الجامح ويحتاج لقوانين تروضه لم يعد يُنظر إليه كمعجزة تكنولوجية فحسب، بل كقوة خطرة تحتاج إلى احتواء وتوجيه، وأحياناً كثيرة نوع من السيطرة المتزنة.
تقرير" Gartner" الصادر خلال يونيو (حزيران) 2025 سلط الضوء على هذه المعركة العالمية المتسارعة، معركة بين الابتكار والسيادة، بين النمو والرقابة، بين الآلة والدولة.
أميركا.. قضية سيادة وأمن قومي
الولايات المتحدة، التي طالما تبنت الابتكار بلا خوف، بدأت الآن تتعامل مع الذكاء الاصطناعي على محمل الجد، وتتعامل معه كقضية سيادية وأمن قومي، فعبر مذكرتي ""M-25-21 و"M-25-22"، وجهت الحكومة الفيدرالية وكالاتها إلى اعتماد تقنيات ذكاء اصطناعي "محلية الصنع"، وتشجيع التبني المؤسسي مع تقليل الأخطار، وتعيين ما يعرف بـ"كبير مسؤولي الذكاء الاصطناعي" في كل وكالة.
لكن الأكثر إثارة وخطورة هو مقترح تجميد قوانين الولايات حول الذكاء الاصطناعي لـ10 أعوام كاملة، ومن لا يلتزم يحرم من دعم البنية التحتية، إنه ليس قانوناً تقنياً فحسب، بل هو خطاب قوة شعاره "الذكاء الاصطناعي الأميركي لأميركا أولاً".
التقرير يذكر أن الولايات المتحدة تقود العالم بـــ40 نموذجاً متقدماً للذكاء الاصطناعي، متفوقة على الصين والاتحاد الأوروبي، لكنها تتأخر في عدد براءات الاختراع، إذ تهيمن الصين على 70 في المئة من براءات الذكاء الاصطناعي عالمياً، مما يفتح سؤالاً كبيراً حول من يملك المستقبل؟ فهل هو من يبني الأفكار؟ أم من يسجلها؟
أوروبا... حوكمة متناغمة لكن صارمة
الاتحاد الأوروبي أخذ الطريق المعاكس، فبدلاً من تحفيز غير مشروط، فضل ضبطاً قانونياً صارماً، عبر "قانون الذكاء الاصطناعي" الجديد "EU AI Act"، قسمت الأنظمة إلى أربعة مستويات حسب خطورتها، فهناك مستوى منخفض الخطورة (أنظمة التوصية في المتاجر الأسواق الإلكترونية)، أيضاً مستوى محدود الخطورة (الشات بوتات والمحادثات الآلية)، كذلك مستوى مرتفع الخطورة (أدوات التشخيص الطبي والتوظيف)، وأخيراً مستوى محظور مثل التصنيف الاجتماعي وتحليل العواطف في المدارس أو بيئات العمل.
وأي خرق لهذا القانون؟ تصل غرامته إلى 35 مليون يورو (41 مليون دولار) أو سبعة في المئة من إيرادات المؤسسة العالمية، أيهما أعلى.
من جهته، يرى الاتحاد الأوروبي في الذكاء الاصطناعي خطراً على الحقوق الأساس، وليس مجرد أداة، لذا يفرض على الشركات اختبارات امتثال وتحليلات أخطار، وتدقيقاً شفافاً على النماذج.
لكن هذه الصرامة على رغم عدالتها الأخلاقية، قد تضعف من قدرة الشركات الأوروبية على المنافسة أمام نماذج أكثر تحرراً في أميركا والصين.
الصين.. عقلنة القوى وفقاً للقيم الوطنية
الصين لم تسن قانوناً شاملاً للذكاء الاصطناعي بعد، لكنها طورت قوانين متخصصة، فهناك أنظمة لتنظيم الخوارزميات، وأخرى لتقنيات "التوليف العميق" مثل إنشاء فيديوهات أو صور مزيفة، وأنظمة تلزم بوسم أي محتوى ينتجه الذكاء الاصطناعي، سواء بعلامة مرئية أو في البيانات الوصفية يطبق اعتباراً من سبتمبر (أيلول) 2025.
بكين كانت واضحة، إذ تقول إن الذكاء الاصطناعي يجب أن يتماشى مع القيم الثقافية والاشتراكية الصينية، فعلى سبيل المثال، حُظر نموذج ذكاء اصطناعي أجنبي عام 2024 لأنه أنتج محتوى "غير متوافق" مع السياسات الثقافية، أيضاً الشركات الأجنبية تواجه قيوداً صارمة لتخزين البيانات محلياً داخل الصين.
فالصين تنظر إلى الذكاء الاصطناعي كسلاح استراتيجي لكن بتحكم مركزي صلب، وهذا يضمن هيمنتها على السوق المحلية، لكنه قد يحد من الابتكار مقارنة بالأسواق الأكثر انفتاحاً.
المنطقة العربية.. فرصة أم تهديد؟ والأخلاق ومنظور عربي إسلامي
الذكاء الاصطناعي يثير تساؤلات أخلاقية عميقة خصوصاً في مجتمعاتنا العربية والإسلامية، كيف نضمن أن تكون هذه التقنية عادلة ومحايدة؟ فالإسلام يدعو إلى العدل والمساواة، لكن أنظمة الذكاء الاصطناعي قد تكون متحيزة إذا لم تصمم بعناية، فعلى سبيل المثال أنظمة التوظيف الآلية قد تميز ضد فئات أو تتعدى على المكونات الإسلامية إذا لم تبرمج بصورة تراعي التنوع الثقافي والديني.
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
وآن الأوان وربما هي فرصة لإنشاء مجلس عربي لحوكمة الذكاء الاصطناعي أو ميثاق عربي للذكاء الأخلاقي، والدول العربية مدعوة لتطوير أطر أخلاقية مستوحاة من قيمها، مثل احترام الخصوصية والعدالة الاجتماعية، لتكون لاعباً فاعلاً في هذا المجال، بدلاً من مجرد متلقٍ.
وتسارع دول مثل السعودية والإمارات لتبني الذكاء الاصطناعي ضمن رؤاها التنموية، مثل رؤية "2030 السعودية" ومشروع "نيوم".
الذكاء الاصطناعي أصبح مشروعاً سيادياً عالمياً، وقد يكون فرصة ذهبية للمنطقة لتقليص الفجوة التكنولوجية، لكنه يحتاج إلى استثمارات ضخمة في التعليم والبنية التحتية، ومن دون قوانين واضحة، قد تصبح الدول العربية سوقاً استهلاكية بدلاً من لاعب رئيس.
الشركات في مرمى النيران
وسط هذا المشهد المنقسم، تجد الشركات نفسها أمام متاهة تنظيمية، كيف تبني نموذجاً واحداً يخدم أسواقاً بثلاث رؤى قانونية متناقضة؟
تقرير "Gartner" ينصح الشركات العالمية بإنشاء فرق استجابة تضم القانونيين والمهندسين وخبراء الموارد البشرية، وتقييم كل نموذج من حيث احتمالات التحيز أو الاستخدام الخاطئ، كذلك إعادة بناء نماذج الامتثال لتتوافق مع قوانين كاليفورنيا والصين وبروكسل في آن واحد.
وينصحها بتتبع سياسات "الاستباق والتنبؤ" بدلاً من الانتظار لرد الفعل، مع التركيز على البيانات الجغرافية (لأن موقع المستخدم المحلي، يعني قوانين مختلفة تماماً).
واقع مفروض ومستقبل متوتر
الذكاء الاصطناعي ليس مجرد ثورة تكنولوجية، بل مرآة تعكس قيم كل دولة حول الحرية والخصوصية والسيادة. فهل سيبقى العالم منقسماً؟ أم ستتفق الدول الكبرى على معاهدة ذكاء اصطناعي مشابهة لمعاهدات الطاقة النووية؟
الأرجح هو استمرار الفوضى المنظمة، سباق تسلح قانوني بين من يريد السيطرة على النماذج ومن يريد التحكم في البيانات، ومن يريد احتكار السوق.
السؤال المهم لم يعد "هل تستخدم الذكاء الاصطناعي؟"، بل هو "هل تفهم تبعاته القانونية؟" فالقانون لم يعد يلهث خلف التكنولوجيا، بل يركض إلى جانبها، وأحياناً يمسكها من رقبتها.
لقد دخلنا زمن "الذكاء المقيد"، إذ يراقب كل كود ويراجع كل قرار وتسجل كل نية، ولم يعد الذكاء الاصطناعي حكراً على المبرمجين أو الشركات بل أصبح مشروعاً سيادياً عالمياً.
في النهاية، فالدول التي تستطيع أن توازن بين الابتكار والرقابة هي من سيفوز بالسباق، والعالم العربي لديه فرصة كبيرة لأن يكون لاعباً رئيساً لو تحرك بسرعة وذكاء، فالمستقبل ليس تكنولوجياً فحسب، ولكنه سياسي وأخلاقي بامتياز، فمن لا يملك قانوناً للذكاء الاصطناعي سيتحول عاجلاً أم آجلاً إلى مستعمرة رقمية.
المستقبل تحت المجهر
تقرير"Gartner" الأخير لا يترك مجالاً للغموض، فالمستقبل من وجهة نظره سيكون فوضوياً وذكياً وخطراً في الوقت نفسه.
وأشار التقرير إلى أنه بحلول عام 2028 ستتخذ 15 في المئة من قرارات الأعمال اليومية بصورة مستقلة تماماً من خلال "وكلاء ذكاء اصطناعي فاعلين"، مقارنة بصفر في المئة فحسب عام 2024 (أي إن الروبوتات لن تقترح فحسب، بل ستقرر فعلياً، نيابة عن البشر).
كذلك، نحو 60 في المئة من الشركات العالمية ستنتقل بحلول عام 2027 إلى نموذج تنظيمي فيدرالي للتعامل مع التعقيدات التنظيمية واللامركزية، بما في ذلك قوانين الذكاء الاصطناعي المتضاربة بين الدول، أيضاً 25 في المئة من خروقات الأمن المؤسسي بحلول عام 2028 ستكون ناتجة من إساءة استخدام لوكلاء الذكاء الاصطناعي وليس فحسب من القراصنة، بل من موظفين في الداخل كذلك (يعني أن التهديد الداخلي صار برمجياً أيضاً).
في الولايات المتحدة تحديداً، من المتوقع أن يغطي نحو 50 في المئة من السكان قوانين ذكاء اصطناعي، مقارنة بـ18 في المئة فحسب خلال العام الحالي، وهو ما يعكس كيف أصبح تنظيم الذكاء الاصطناعي قضية سياسية ومحلية، وليست فيدرالية فحسب.
هذه التوقعات لا تظهر فقط أين نحن ذاهبون، بل تؤكد أن الذكاء الاصطناعي سيتحول من "أداة مساعدة" إلى "فاعل مباشر" في الاقتصاد والسياسة والأمن.