من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

ييترونيك – Stock.adobe.com

خلال قمة الذكاء الاصطناعي الأخيرة في كوريا الجنوبية، أكدت الحكومات المشاركة من جديد التزاماتها السابقة بتعميق التعاون الدولي في مجال سلامة الذكاء الاصطناعي، واتفقت على إطلاق شبكة دولية من “معاهد السلامة”.

بواسطة

نشرت: 21 مايو 2024 الساعة 17:11

وقعت عشر حكومات والاتحاد الأوروبي المجتمعين في قمة الذكاء الاصطناعي في سيول بكوريا الجنوبية على تباطؤ مشترك يوضح “تفانيهم المشترك” في التعاون الدولي في مجال الذكاء الاصطناعي، ويؤكدون على ضرورة “إدراجهم بنشاط” لمجموعة واسعة من الأصوات في مناقشات الإدارة الجارية.

تم التوقيع عليه في 21 مايو 2024، إعلان سيول من أجل ذكاء اصطناعي آمن ومبتكر وشامل يبني على تباطؤ بلتشلي تم التوقيع عليه قبل ستة أشهر من قبل 28 حكومة والاتحاد الأوروبي في المؤتمر قمة سلامة الذكاء الاصطناعي الافتتاحية في المملكة المتحدة.

وتأكيدًا على الحاجة إلى نهج شامل يتمحور حول الإنسان لضمان موثوقية التكنولوجيا وسلامتها، قال تباطؤ بلتشلي إن التعاون الدولي بين البلدان سيركز على تحديد مخاطر سلامة الذكاء الاصطناعي ذات الاهتمام المشترك؛ وبناء فهم علمي مشترك وقائم على الأدلة لهذه المخاطر؛ وتطوير سياسات الحوكمة القائمة على المخاطر؛ والحفاظ على هذا الفهم مع استمرار تطور القدرات.

وبينما أشار إعلان بلتشلي إلى أهمية العمل الشامل بشأن سلامة الذكاء الاصطناعي، فإن إعلان سيول – الذي وقعته أستراليا وكندا والاتحاد الأوروبي وفرنسا وألمانيا وإيطاليا واليابان وجمهورية كوريا وجمهورية سنغافورة والمملكة المتحدة، والولايات المتحدة – أكدت صراحة على “أهمية التعاون النشط بين أصحاب المصلحة المتعددين” في هذا المجال، وألزمت الحكومة المعنية بالعمل “بنشاط” بما في ذلك مجموعة واسعة من أصحاب المصلحة في المناقشات المتعلقة بالذكاء الاصطناعي.

على الرغم من الإيجابية التي أبداها المسؤولون الحكوميون وممثلو صناعة التكنولوجيا في أعقاب قمة الذكاء الاصطناعي الأخيرة، كان هناك قلق من المجتمع المدني والنقابات العمالية بشأن استبعاد العمال وغيرهم من المتأثرين بشكل مباشر بالذكاء الاصطناعي، حيث يوجد أكثر من 100 من هذه المنظمات التوقيع على رسالة مفتوحة ووصف الحدث بأنه “فرصة ضائعة”.

وفي حين أن هناك بعض الإضافات الجديدة، فإن تباطؤ سيول الأخير يكرر في المقام الأول العديد من الالتزامات التي تم التعهد بها في بلتشلي، وخاصة حول أهمية تعميق التعاون الدولي وضمان استخدام الذكاء الاصطناعي بشكل مسؤول، على سبيل المثال، لحماية حقوق الإنسان والبيئة.

كما كرر الالتزام السابق بالتنمية نهج الحوكمة القائمة على المخاطر، والتي تمت إضافتها الآن يجب أن تكون قابلة للتشغيل المتبادل مع بعضها البعض؛ ومواصلة بناء الشبكة الدولية لهيئات البحث العلمي التي تم إنشاؤها خلال القمة الأخيرة، مثل معاهد سلامة الذكاء الاصطناعي المنفصلة في المملكة المتحدة والولايات المتحدة.

وفي هذا الصدد، وقعت نفس الدول العشر والاتحاد الأوروبي على الاتفاقية بيان نوايا سيول تجاه التعاون الدولي في علوم سلامة الذكاء الاصطناعي، والتي ستشهد اجتماع معاهد البحوث المدعومة من القطاع العام والتي تم إنشاؤها بالفعل لضمان “التكامل وقابلية التشغيل البيني” بين عملها الفني والنهج العام لسلامة الذكاء الاصطناعي – وهو ما حدث بالفعل بين معاهد الولايات المتحدة والمملكة المتحدة.

وقال السكرتير الرقمي: “منذ أن اجتمعنا العالم في بلتشلي العام الماضي، قادت المملكة المتحدة الحركة العالمية بشأن سلامة الذكاء الاصطناعي، وعندما أعلنت عن أول معهد لسلامة الذكاء الاصطناعي في العالم، اتبعت الدول الأخرى هذه الدعوة إلى حمل السلاح من خلال إنشاء معهد خاص بها”. ميشيل دونيلان.

“وبالاستفادة من هذه القيادة، سيكون التعاون مع نظرائنا في الخارج من خلال شبكة عالمية أمرًا أساسيًا للتأكد من أن الابتكار في الذكاء الاصطناعي يمكن أن يستمر مع السلامة والأمن والثقة في جوهره.”

قبل قمة سيول، معهد سلامة الذكاء الاصطناعي في المملكة المتحدة (AISI) أعلن أنها ستنشئ مكاتب جديدة في سان فرانسيسكو للوصول إلى شركات الذكاء الاصطناعي الرائدة والمواهب التقنية في منطقة الخليج، وأصدرت علنًا مجموعتها الأولى من نتائج اختبارات السلامة.

ووجدت أن أياً من نماذج اللغات الكبيرة الخمسة التي لم يتم تسميتها والتي قامت بتقييمها لم تكن قادرة على القيام بمهام أكثر تعقيداً وتستغرق وقتاً طويلاً دون إشراف البشر عليها، وأن جميعها لا تزال معرضة بشدة لعمليات “كسر الحماية” الأساسية لضماناتها. ووجدت أيضًا أن بعض النماذج ستنتج مخرجات ضارة حتى بدون محاولات مخصصة للتحايل على هذه الضمانات.

في مشاركة مدونة اعتبارًا من منتصف مايو 2024، شكك معهد Ada Lovelace (ALI) في الفعالية الشاملة لـ AISI والنهج السائد لتقييم النماذج في مجال أمان الذكاء الاصطناعي، كما شكك أيضًا في إطار الاختبار الطوعي الذي يعني أن المعهد لا يمكنه الوصول إلا إلى النماذج. مع موافقة الشركات.

وجاء في التقرير أن “حدود النظام التطوعي تمتد إلى ما هو أبعد من الوصول وتؤثر أيضًا على تصميم التقييمات”. “وفقًا للعديد من المقيمين الذين تحدثنا إليهم، فإن ممارسات التقييم الحالية أكثر ملاءمة لمصالح الشركات من الجمهور أو الهيئات التنظيمية. داخل شركات التكنولوجيا الكبرى، تدفعها الحوافز التجارية إلى إعطاء الأولوية لتقييم الأداء وقضايا السلامة التي تشكل مخاطر على السمعة (بدلاً من قضايا السلامة التي قد يكون لها تأثير مجتمعي أكثر أهمية).

اقرأ المزيد عن الذكاء الاصطناعي والأتمتة والروبوتات

اقرأ أكثر

كيفية التخلص من النظرات العامة الفظيعة للذكاء الاصطناعي من Google
قمة الذكاء الاصطناعي في سيول: 16 شركة من شركات الذكاء الاصطناعي تقدم التزامات طوعية تتعلق بالسلامة

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل