الذكاء الاصطناعي (حصاد 2023 وتحديات المستقبل) .. الجزء الثالث
ثالثًا: نحو قانون للذكاء الاصطناعي
لعل الحدث الأهم في سنة 2023 هو توصل أعضاء البرلمان الأوروبي في التاسع من ديسمبر إلى اتفاق مؤقت بشأن قانون للذكاء الاصطناعي للاتحاد الأوروبي (EU AI Act). وسيُمثل هذا التشريع بعد اعتماده رسميًا أول قانون على الإطلاق بشأن استخدامات الذكاء الاصطناعي، إذ يُنشِئ إطارًا تنظيميًا عالميًا رائدًا لضمان السلامة والشرعية والجدارة بالثقة واحترام الحقوق الأساسية داخل أنظمة الذكاء الاصطناعي. وتهدف هذه الخطوة السبَّاقة إلى وضع معايير عالمية لتنظيم الذكاء الاصطناعي، وتعزيز النهج الأوروبي لتنظيم التكنولوجيا على المسرح العالمي، وتمهيد الطريق أمام مشهد عالمي للذكاء الاصطناعي يتسم بالأخلاقية. كما تهدف أيضًا إلى تعزيز ودعم «النظام الأوروبي العام لحماية البيانات» (General Data Protection Regulation (GDPR))، الذي اعتُمِد في الرابع عشر من أبريل سنة 2016، ثم مرَّ بفترة انتقالية لمدة عامين ليصبح ساري التنفيذ في الخامس والعشرين من مايو سنة 2018.
استمرت المفاوضات الماراثونية بين البرلمان الأوروبي والدول الأعضاء في الاتحاد الأوروبي 37 ساعة، ووصف «تييري بريتون» (Thierry Breton)، المفوض الأوروبي المسؤول عن مجموعة من القوانين في أوروبا، الاتفاق الذي شارك في مناقشته مائة شخص بأنه «تاريخي»، وأنه سيحكم أيضًا وسائل التواصل الاجتماعي ومحركات البحث، بما في ذلك عمالقة مثل تويتر Twitter X)) وتيكتوك (TikTok) وجوجل (Google) وفيسبوك (Facbook). كما صرحت «كارمي أرتيجاس» (Carme Artigas)، وزيرة الدولة الإسبانية للذكاء الاصطناعي، بأن فرنسا وألمانيا دعمتا النص، وسط تقارير تفيد بأن شركات التكنولوجيا فيهما كانت تقاتل من أجل نهج أخف لتعزيز الابتكار بين الشركات الصغيرة. أما رئيسة المفوضية الأوروبية «أورسولا فون دير لاين» (Ursula von der Leyen)، فقد رحبت بالاتفاق التاريخي الذي ينص على أن الذكاء الاصطناعي يغير بالفعل حياة الناس كل يوم، مؤكدةً أن «قانون الذكاء الاصطناعي المقترح سيُقدم مساهمة كبيرة في تطوير القواعد والمبادئ العالمية للذكاء الاصطناعي الذي يركز على الإنسان، إن قانون الذكاء الاصطناعي ينقل القيم الأوروبية إلى عصر جديد. وبتركيز التنظيم على المخاطر التي يمكن تحديدها، فإن هذا الاتفاق يعمل على تعزيز الإبداع المسؤول في أوروبا. وبضمان السلامة والحقوق الأساسية للأشخاص والشركات، فإنه سيدعم تطوير الذكاء الاصطناعي الجدير بالثقة ونشره واستخدامه في الاتحاد الأوروبي».
كانت المفوضية الأوروبية قد اقترحت في الحادي والعشرين من أبريل سنة 2021 أول إطار تنظيمي وقانوني مشترك للاتحاد الأوروبي للذكاء الاصطناعي، يشمل نطاقه القطاعات كافة (باستثناء العسكرية)، وأنواع الذكاء الاصطناعي جميعها. وأشارت المفوضية إلى أن أنظمة الذكاء الاصطناعي التي يمكن استخدامها في تطبيقات مختلفة تُحلَّل وتُصنَّف وفقًا للمخاطر التي تشكلها على المستخدمين أو المجتمع، وعلى الرغم من أن كثرةً من أنظمة الذكاء الاصطناعي تشكل الحد الأدنى من المخاطر، فهي تحتاج إلى التقييم، لذا يُمكن تقسيم المخاطر المحتملة إلى أربعة مستويات، لكل منها قواعده:
مخاطر غير مقبولة (Unacceptable Risks)
تلك التي تحمل تهديدًا للناس ويجب حظرها، وتشمل التلاعب السلوكي المعرفي بالأشخاص أو الفئات الضعيفة (على سبيل المثال الألعاب التي تُنشَّط بالصوت وتشجع السلوك الخطير لدى الأطفال)، والتصنيف الاجتماعي للأشخاص على أساس السلوك أو الحالة الاجتماعية والاقتصادية أو الخصائص الشخصية، والقياسات الحيوية (Biometrics)، المستخدمة في علوم الحاسوب كأحد أشكال تحديد الهوية والتحكم، وفي تحديد الأفراد في المجموعات الخاضعة للمراقبة عن بُعد، وفي معرفة الخصائص المميزة والقابلة للقياس التي يُمكن استخدامها لتسمية الأفراد ووصفهم، والتعرف على المشاعر في أماكن العمل والمدارس وغيرها. وقد يُسمح ببعض الاستثناءات بهدف إنفاذ القانون.
مخاطر عالية (High Risks)
أنظمة الذكاء الاصطناعي التي تؤثر سلبًا على السلامة أو الحقوق الأساسية، وتنقسم إلى فئتين:
- أنظمة الذكاء الاصطناعي المستخدمة في المنتجات الخاضعة لتشريعات سلامة المنتجات في الاتحاد الأوروبي. ويشمل ذلك الألعاب والطيران والسيارات والأجهزة الطبية والمصاعد.
- أنظمة الذكاء الاصطناعي في مجالات محددة، التي يجب تسجيلها في قاعدة بيانات الاتحاد الأوروبي، منها: إدارة البنية التحتية الحيوية وتشغيلها، التعليم والتدريب المهني، التوظيف وإدارة العمال، الوصول إلى العمل الحر، الوصول إلى الخدمات الخاصة الأساسية والخدمات والمنافع العامة والتمتع بها، تطبيق قانون إدارة الهجرة واللجوء، مراقبة الحدود، المساعدة في التفسير القانوني، تطبيق القانون.
وسوف تُقيَّم أنظمة الذكاء الاصطناعي عالية المخاطر جميعها قبل طرحها في السوق وأيضًا طوال دورة حياتها. وفي الإطار ذاته يجب أن يتوافق الذكاء الاصطناعي التوليدي، مثل «تشات جي بي تي»، مع متطلبات الشفافية، بحيث يُفصَح عن أن المحتوى أُنشِئ بالذكاء الاصطناعي، وتصميم النموذج لمنعه من توليد محتوى غير قانوني، ونشر ملخصات للبيانات المحمية بحقوق الطبع والنشر المستخدمة في التدريب.
مخاطر محدودة (Limited Risks)
أنظمة الذكاء الاصطناعي ذات المخاطر التي يمكن التحكم فيها، وهذه يجب أن تخضع لالتزامات الشفافية الخفيفة لتمكين المستخدمين من اتخاذ قرارات مستنيرة.
مخاطر ضئيلة أو معدومة (Minimal or No Risks)
أنظمة الذكاء الاصطناعي الأخرى كافة، التي يمكن أن تستمر دون تنظيم.
تتمثل أولوية البرلمان الأوروبي في التأكد أن أنظمة الذكاء الاصطناعي المستخدمة في الاتحاد آمنة وشفافة ويمكن تتبعها وغير تمييزية وصديقة للبيئة. ويريد البرلمان أيضًا وضع تعريف موحد ومحايد من الناحية التكنولوجية للذكاء الاصطناعي يمكن تطبيقه على أنظمة الذكاء الاصطناعي المستقبلية. من جهة أخرى، تضع الاتفاقية الاتحاد الأوروبي في مقدمة السباق الدولي، لتنظيم الذكاء الاصطناعي وحماية الجمهور من المخاطر التي تشمل التهديد المحتمل للحياة، الذي يخشى كثيرون أن تحمله التكنولوجيا سريعة التطور. وإلى جانب النزاع بخصوص النماذج الأساسية المُصممة لأغراضٍ عامة، تطرقت المفاوضات إلى أنظمة المراقبة المعتمدة على الذكاء الاصطناعي، التي يمكن أن تستخدمها الشرطة أو أصحاب العمل أو تجار التجزئة لتصوير أفراد من الجمهور في الوقت الفعلي والتعرف على التوتر العاطفي.
من المنتظر أيضًا أن يحظر القانون الأوروبي استخدام الذكاء الاصطناعي في أية أعمال لمحاكاة السلوك البشري أو التلاعب به بقصد الالتفاف على الإرادة الحرة للإنسان الأوروبي، كما يُجرم القانون استخدام الذكاء الاصطناعي في أية أعمال تُشكل استغلالًا أو ابتزازًا لكبار السن وذوي الإعاقة، وكذلك أصحاب الظروف الاجتماعية الخاصة. ويضع القانون المنتظر تطبيقه للذكاء الاصطناعي، عقوبة بالغرامة تصل إلى 35 مليون يورو على كل مؤسسة تخالف قواعده وبنوده، أو ما يعادل 7% من قيمة إيرادات المؤسسة نتيجة تصديرها برامج مخالفة للقواعد الأوروبية الحاكمة للذكاء الاصطناعي وتطبيقاته إلى أسواق العالم.
من المنظور الزمني، لن يدخل القانون المُقترح حيز التنفيذ قبل سنة 2025، وهو مرهون حاليًا بموافقة البرلمانات الوطنية الخاصة بكل بلد من الاتحاد الأوروبي، وكذلك مصادقة حكومات دول الاتحاد الأوروبي على ذلك، بالإضافة إلى القبول المجتمعي له، لا سيما المجتماعات الأكاديمية ومراكز البحوث والمنظمات المدنية، التي ذهب بعضها إلى أنه صفعة لحرية البحث العلمي وقيد أمام الباحثين في مجالات تطوير تطبيقات الذكاء الاصطناعي.
يتبع…
مقالات ذات صلة:
هل يمكن تفسير السلوك أنه نتيجة برامج مخزنة في المخ؟
* تنويه: الأفكار المذكورة في المقال لا تعبر بالضرورة عن رأي الموقع.
_________________________________
لمتابعة قناة اليوتيوب لأكاديمية بالعقل نبدأ، اضغط هنا
لقراءة المزيد من المقالات، اضغط هنا