تاواتشاي1990 – Stock.adobe.com
التزمت شركات الذكاء الاصطناعي البارزة من جميع أنحاء العالم بمجموعة من تدابير السلامة الطوعية في مجال الذكاء الاصطناعي، والتي تشمل تطوير عمليات تقييم المخاطر المستمرة، وتحديد عتبات المخاطر المقبولة، وضمان قدر أكبر من الشفافية.
حصلت حكومتا المملكة المتحدة وكوريا الجنوبية على التزامات طوعية من 16 شركة عالمية تعمل في مجال الذكاء الاصطناعي (AI) لتطوير التكنولوجيا بأمان، بما في ذلك شركات من الولايات المتحدة والصين والإمارات العربية المتحدة.
تم التوقيع عليه خلال اليوم الأول من قمة الذكاء الاصطناعي في سيول التزامات السلامة الخاصة بشركة Frontier AI وقال إن الشركات لن تطور أو تنشر أنظمة الذكاء الاصطناعي إذا لم يكن من الممكن التخفيف من المخاطر بشكل كافٍ، وحدد مجموعة من التدابير التي يجب عليهم اتخاذها لضمان أن تكون أساليبهم شفافة وخاضعة للمساءلة.
ويتضمن ذلك تقييم المخاطر التي تشكلها نماذجهم في كل مرحلة من دورة حياة الذكاء الاصطناعي بأكملها؛ ووضع عتبات مخاطر غير مقبولة للتعامل مع التهديدات الأشد خطورة؛ وتوضيح كيفية تحديد إجراءات التخفيف وتنفيذها لضمان عدم انتهاك الحدود؛ والاستثمار المستمر في قدراتهم على تقييم السلامة.
كما التزم الموقعون – الذين يضمون شركات مثل Google، وMeta، وAmazon، وMicrosoft، وAnthropic، وOpenAI، وMistral AI، وIBM، وSamsung، وxAI، وNaver، وCohere، وZhipu.ai – طوعًا بشرح كيفية قيام الجهات الفاعلة الخارجية من الحكومة والمؤسسات المدنية ويشارك المجتمع والجمهور في عملية تقييم المخاطر، فضلا عن توفير الشفافية العامة على العملية برمتها.
ومع ذلك، فإن الالتزام بالشفافية العامة محدود، حيث لن تضطر الشركات إلى تقديم أي معلومات إذا كان “القيام بذلك من شأنه أن يزيد المخاطر أو يكشف معلومات تجارية حساسة إلى درجة لا تتناسب مع المنفعة المجتمعية”؛ على الرغم من أنه لا يزال من المتوقع منهم الكشف عن معلومات أكثر تفصيلاً مع “الجهات الفاعلة الموثوقة” مثل الحكومات أو الهيئات المعينة في هذه الحالات.
وأكدت الشركتان أيضًا التزامهما بتنفيذ أفضل الممارسات الحالية في الصناعة فيما يتعلق بسلامة الذكاء الاصطناعي، بما في ذلك التعاون الداخلي والخارجي لنماذج الذكاء الاصطناعي الرائدة؛ الاستثمار في الأمن السيبراني وضمانات التهديدات الداخلية لحماية أوزان النماذج المملوكة وغير المنشورة؛ تحفيز اكتشاف الجهات الخارجية للمشكلات ونقاط الضعف والإبلاغ عنها؛ وإعطاء الأولوية للبحث في المخاطر المجتمعية التي تشكلها نماذج وأنظمة الذكاء الاصطناعي الرائدة؛ وتطوير ونشر نماذج وأنظمة الذكاء الاصطناعي الرائدة للمساعدة في مواجهة أكبر التحديات التي يواجهها العالم.
وقال جميع الستة عشر إنهم سينشرون أطر السلامة الخاصة بهم حول كيفية إدارة كل هذه المشكلات قبل قمة الذكاء الاصطناعي القادمة في فرنسا.
وقال رئيس وزراء المملكة المتحدة ريشي سوناك: “إنها المرة الأولى في العالم التي يوافق فيها هذا العدد الكبير من شركات الذكاء الاصطناعي الرائدة من أجزاء مختلفة من العالم على نفس الالتزامات بشأن سلامة الذكاء الاصطناعي”.
“تضمن هذه الالتزامات أن توفر شركات الذكاء الاصطناعي الرائدة في العالم الشفافية والمساءلة بشأن خططها لتطوير ذكاء اصطناعي آمن. إنه يشكل سابقة للمعايير العالمية بشأن سلامة الذكاء الاصطناعي والتي ستطلق العنان لفوائد هذه التكنولوجيا التحويلية.
وأضافت السكرتيرة الرقمية ميشيل دونيلان أن الإمكانات الحقيقية للذكاء الاصطناعي لن تتحقق إلا إذا تم استيعاب المخاطر بشكل صحيح: “يقع على عاتقنا جميعًا التأكد من تطوير الذكاء الاصطناعي بشكل آمن، واتفاقية اليوم تعني أننا قد عززنا الآن التزامات شركات الذكاء الاصطناعي ونعمل بشكل أفضل”. التمثيل في جميع أنحاء العالم.
“مع ظهور المزيد من نماذج الذكاء الاصطناعي القوية على الإنترنت، والمزيد من اختبارات السلامة المقرر إجراؤها في جميع أنحاء العالم، فإننا نقود مهمة إدارة مخاطر الذكاء الاصطناعي حتى نتمكن من اغتنام إمكاناته التحويلية للنمو الاقتصادي.”
وتعتمد الالتزامات الطوعية التي تم التعهد بها في سيول على الالتزامات السابقة التي تعهدت بها البلدان والشركات خلال المؤتمر أول قمة لسلامة الذكاء الاصطناعي نظمتها حكومة المملكة المتحدة في بلتشلي بارك قبل ستة أشهر.
وشمل ذلك جميع الحكومات الـ 28 الحاضرة للتوقيع على الاتفاق إعلان بلتشلي – بيان غير ملزم يلزمهم بتعميق تعاونهم حول المخاطر المرتبطة بالذكاء الاصطناعي – وموافقة عدد من شركات الذكاء الاصطناعي على فتح نماذجها أمام العالم. معهد سلامة الذكاء الاصطناعي في المملكة المتحدة (AISI) لاختبار ما قبل النشر.
واتفقت البلدان أيضًا على دعم يوشوا بينجيو – وهو أكاديمي في مجال الذكاء الاصطناعي حائز على جائزة تورينج وعضو في المجلس الاستشاري العلمي للأمم المتحدة – لقيادة أول تقرير على الإطلاق بعنوان “حالة العلوم” في مجال الذكاء الاصطناعي يقيّم الأبحاث الحالية حول مخاطر وقدرات الذكاء الاصطناعي الحدودي؛ نسخة مؤقتة والتي تم نشرها في مايو 2024.
وتعليقًا على التزامات السلامة الجديدة، قال بينجيو إنه على الرغم من سروره برؤية العديد من شركات الذكاء الاصطناعي الرائدة تشترك – ويرحب بشكل خاص بالتزاماتها بوقف النماذج التي تشكل فيها مخاطر شديدة – إلا أنها ستحتاج إلى دعمها بإجراءات تنظيمية أكثر رسمية. تحت الخط.
وقال: “من الواضح أن هذا الالتزام الطوعي يجب أن يكون مصحوبًا بتدابير تنظيمية أخرى، لكنه مع ذلك يمثل خطوة مهمة إلى الأمام في إنشاء نظام حوكمة دولي لتعزيز سلامة الذكاء الاصطناعي”.
وتعليقًا على التزام الشركات بوضع حدود للمخاطر، أضافت بيث بارنز، مؤسس ورئيس قسم الأبحاث في منظمة METR غير الربحية لسلامة نماذج الذكاء الاصطناعي: “من الضروري الحصول على اتفاق دولي بشأن “الخطوط الحمراء” حيث يصبح تطوير الذكاء الاصطناعي خطيرًا بشكل غير مقبول على السلامة العامة.”
في حين اتفق أربعة من مطوري النماذج الأساسية للذكاء الاصطناعي خلال قمة بلتشلي على فتح أنظمتهم لاختبار ما قبل النشر، ذكرت صحيفة بوليتيكو في أواخر أبريل 2024، لم يوفر ثلاثة منهم بعد الوصول المتفق عليه للإصدار المسبق إلى AISI.
اتصلت مجلة Computer Weekly بوزارة العلوم والابتكار والتكنولوجيا (DSIT) بشأن الموعد الذي ستضغط فيه من أجل الحصول على التزامات إلزامية من شركات الذكاء الاصطناعي، وكذلك ما إذا كانت تعتقد أن الالتزامات الطوعية المقدمة كافية بالنظر إلى المشكلات المتعلقة بالوصول قبل النشر، لكنها لم تفعل ذلك. تلقي الرد بحلول وقت النشر.
اقرأ المزيد عن الذكاء الاصطناعي والأتمتة والروبوتات
قمة الذكاء الاصطناعي في سيول: 10 دول والاتحاد الأوروبي يجددون التزامهم بالذكاء الاصطناعي الآمن والشامل
بواسطة: سيباستيان كلوفيج سكيلتون
يسلط التقرير الضوء على الخلاف بين الخبراء حول سلامة الذكاء الاصطناعي
بواسطة: كليف ساران
تقوم Microsoft بإنشاء مركز الذكاء الاصطناعي في بادينغتون
بواسطة: كليف ساران
الولايات المتحدة والمملكة المتحدة تتفقان على التعاون في مجال سلامة الذكاء الاصطناعي
بواسطة: كليف ساران