لقد كان أسبوعًا مزدحمًا بالنسبة لواضعي سياسات الذكاء الاصطناعي. أبرم الاتحاد الأوروبي الصفقة بشأن قانون الذكاء الاصطناعي الخاص به. ومن ناحية أخرى، وقعت 16 شركة رائدة على مستوى العالم في سيول بكوريا الجنوبية على “التزامات سلامة الذكاء الاصطناعي الحدودية”، ووعدت مجموعة من الدول بالعمل معا على تخفيف المخاطر المرتبطة بهذه التكنولوجيا.
لنقول أن العام الماضي كان العام الذي استيقظ فيه العالم منظمة العفو الدولية سيكون بخس. أدى إطلاق ChatGPT في أواخر عام 2022 إلى دفع التكنولوجيا التي كانت موجودة سابقًا خلف الكواليس إلى المحادثات حول مائدة العشاء والقاعات البرلمانية على حدٍ سواء.
وفجأة، تحول المستقبل المروع الذي تحكمه الآلات من مفهوم الخيال العلمي إلى سيناريو محتمل في العالم الحقيقي. على الأقل إذا صدقنا العديد من الباحثين ومجموعات المصالح وحتى الرؤساء التنفيذيين لشركات الذكاء الاصطناعي الذين فعلوا ذلك عرائض يوم القيامة الموقعة لإبطاء تطوير التكنولوجيا حتى يمكن تنفيذ الضمانات الكافية.
لا يبدو أن مثل هذه المخاوف قد فعلت الكثير لتقليل السرعة التي تحرض بها شركات التكنولوجيا بعضها البعض على طرح منتجات جديدة للذكاء الاصطناعي.
التخفيف من مخاطر الذكاء الاصطناعي ذات الطبيعة المختلفة
وبعيداً عن الانقراض بسبب الخوارزميات، هناك أيضاً تهديدات أكثر إلحاحاً ناجمة عن انتشار الذكاء الاصطناعي، مثل التحيز والمراقبة والتوزيع الجماعي للمعلومات المضللة. ولتحقيق هذه الغاية، كان الساسة على الأقل يحاولون التفاف أذهانهم حول ما يمكن القيام به فعلياً لاحتواء الحصان الذي فر بالفعل، إذا حكمنا من خلال المظاهر.
وفي أعقاب قمة الذكاء الاصطناعي التي انعقدت هذا الأسبوع في سيول في كوريا الجنوبية، وقعت مجموعة من الدول اليوم اتفاقاً للعمل معاً على عتبات المخاطر الشديدة للذكاء الاصطناعي، بما في ذلك صنع الأسلحة البيولوجية والكيميائية. الموقعون الأوروبيون هم ألمانيا وفرنسا وإيطاليا وإسبانيا وسويسرا والمملكة المتحدة وتركيا وهولندا، بالإضافة إلى الاتحاد الأوروبي كوحدة واحدة.
وتأتي هذه الاتفاقية في أعقاب “التزامات Frontier AI للسلامة”، التي انضمت إليها 16 من شركات ومنظمات الذكاء الاصطناعي الأكثر نفوذاً في العالم يوم الثلاثاء. ويلتزم الموقعون، ومن بينهم الظاهرة الفرنسية الناشئة ميسترال للذكاء الاصطناعي، طوعا (بمعنى عدم وجود إنفاذ) بتحديد المخاطر وتقييمها وإدارتها طوال دورة حياة الذكاء الاصطناعي.
ويتضمن ذلك تحديد عتبات للمخاطر التي لا يمكن تحملها، وتنفيذ إجراءات تخفيف المخاطر، وإنشاء عمليات للتعامل مع المواقف التي تتجاوز فيها المخاطر الحدود المحددة.
هل يمكن تسريع دورات تنظيم الذكاء الاصطناعي؟
تأتي قمة الذكاء الاصطناعي في سيول بعد أكثر من ستة أشهر من انعقاد قمة سلامة الذكاء الاصطناعي في بلتشلي بارك بالمملكة المتحدة. ستستضيف باريس التجمع القادم – قمة عمل الذكاء الاصطناعي – في فبراير 2025. وقد يكون لإسقاط كلمة “السلامة” لصالح “العمل” علاقة برغبة الرئيس ماكرون في جعل باريس “”مدينة الذكاء الاصطناعي“.
“في اللحظة الجيوسياسية الحالية، لا يمكن فصل تعقيدات الذكاء الاصطناعي عن المناقشة التنظيمية – يجب معالجتها. وقال مارك رودسيث، نائب الرئيس لشؤون التكنولوجيا في أوروبا والشرق الأوسط وأفريقيا لدى CI&T: “يعد التعاون العالمي أمرًا بالغ الأهمية لضمان نشر الذكاء الاصطناعي بأمان ومسؤولية”.
“نظرًا للتقدم السريع في الذكاء الاصطناعي، نحتاج إلى دورات تنظيمية أقصر بكثير. وسيكون هذا أمرًا صعبًا، حيث ستحتاج الحكومات والسلطات التنظيمية إلى تسريع وتيرتها.
وهذا أمر قد يكون صعبا بالنسبة للاتحاد الأوروبي على وجه الخصوص، نظرا للدورات التنظيمية التي يحركها الإجماع في الكتلة. ومع ذلك، وزراء الاتحاد الأوروبي هذا الأسبوع وقعت على قانون الذكاء الاصطناعي التاريخيوالتي ستدخل حيز التنفيذ الشهر المقبل.
قالت ماريا كوسكينن، مديرة سياسات الذكاء الاصطناعي في شركة “سيدوت” الفنلندية الناشئة لحوكمة الذكاء الاصطناعي، لـ TNW: “هناك فرق كبير بين قانون الاتحاد الأوروبي للذكاء الاصطناعي والتزامات سلامة الذكاء الاصطناعي الحدودية، وهو أن الأخير يمكّن المؤسسات من تحديد عتبات المخاطر الخاصة بها”.
ومع ذلك، نظرًا لأنه يُطلب من الشركات مشاركة كيفية تصنيف المخاطر التي قد “تُعتبر غير محتملة” إلى عتبات وكيف تخطط للتخفيف من هذه المخاطر، يبدو أن هذا يدل على أن الشركات والحكومات في جميع أنحاء العالم تتعلم الدروس من الاتحاد الأوروبي. وأضاف كوسكينن أن النهج القائم على المخاطر لقانون الذكاء الاصطناعي.
ما إذا كانوا ناجحين في سعيهم، فإن الوقت وحده هو الذي سيحدد ذلك.