سيئول، كوريا الجنوبية (AP) – تعهدت شركات الذكاء الاصطناعي الرائدة في قمة مصغرة يوم الثلاثاء بتطوير الذكاء الاصطناعي بأمان، بينما اتفق زعماء العالم على بناء شبكة من معاهد السلامة المدعومة من القطاع العام لتعزيز البحث واختبار التكنولوجيا.
وكانت Google وMeta وOpenAI من بين الشركات التي قدمت التزامات طوعية تتعلق بالسلامة في المؤتمر قمة منظمة العفو الدولية في سيول، بما في ذلك إيقاف أنظمتهم المتطورة إذا لم يتمكنوا من كبح جماح المخاطر القصوى.
ويعد الاجتماع الذي يستمر يومين بمثابة متابعة لاجتماع نوفمبر قمة السلامة بالذكاء الاصطناعي في بلتشلي بارك بالمملكة المتحدة، ويأتي وسط موجة من الجهود التي تبذلها الحكومات والهيئات العالمية لتصميم حواجز لهذه التكنولوجيا وسط مخاوف بشأن المخاطر المحتملة التي تشكلها على الحياة اليومية وعلى البشرية.
وقالت الحكومة البريطانية، التي شاركت في استضافة الحدث، في بيان لها، إن زعماء 10 دول والاتحاد الأوروبي “سيقومون بصياغة فهم مشترك لسلامة الذكاء الاصطناعي ومواءمة عملهم في أبحاث الذكاء الاصطناعي”. وأضافت أن شبكة معاهد السلامة ستشمل تلك التي أنشأتها بالفعل المملكة المتحدة والولايات المتحدة واليابان وسنغافورة منذ اجتماع بلتشلي.
وقال الأمين العام للأمم المتحدة أنطونيو جوتيريش في الجلسة الافتتاحية إنه بعد مرور سبعة أشهر على اجتماع بلتشلي، “إننا نشهد تطورات تكنولوجية تغير الحياة ومخاطر جديدة تهدد الحياة – من التضليل إلى المراقبة الجماعية إلى احتمال الأسلحة المستقلة الفتاكة”.
وقال الأمين العام للأمم المتحدة في خطاب بالفيديو إنه يجب أن تكون هناك حواجز حماية عالمية وحوار منتظم حول الذكاء الاصطناعي. وقال: “لا يمكننا السير نائمين نحو مستقبل بائس حيث يتم التحكم في قوة الذكاء الاصطناعي من قبل عدد قليل من الناس – أو ما هو أسوأ من ذلك، من خلال خوارزميات تتجاوز الفهم البشري”.
وتشمل شركات الذكاء الاصطناعي الـ 16 التي وقعت على التزامات السلامة أيضًا أمازون، ومايكروسوفت، وسامسونج، وآي بي إم، وإكس آي آي، وفرنسا. ميسترال منظمة العفو الدوليةو Zhipu.ai الصيني و G42 من دولة الإمارات العربية المتحدة. وتعهدوا بضمان سلامة نماذج الذكاء الاصطناعي الأكثر تقدمًا لديهم مع وعود بالحوكمة المسؤولة والشفافية العامة.
هذه ليست المرة الأولى التي تقدم فيها شركات الذكاء الاصطناعي التزامات عالية الجودة ولكنها غير ملزمة فيما يتعلق بالسلامة. وكانت أمازون وجوجل وميتا ومايكروسوفت من بين المجموعة التي وقعت العام الماضي إلى الضمانات الطوعية التي توسط فيها البيت الأبيض للتأكد من أن منتجاتهم آمنة قبل إطلاقها.
ويأتي اجتماع سيول في الوقت الذي تطرح فيه بعض هذه الشركات أحدث الإصدارات منهم نماذج الذكاء الاصطناعي.
يتضمن تعهد السلامة نشر أطر تحدد كيفية قيام الشركات بقياس مخاطر نماذجها. وفي الحالات القصوى حيث تكون المخاطر شديدة و”لا تطاق”، سيتعين على شركات الذكاء الاصطناعي الضغط على زر التوقف والتوقف عن تطوير أو نشر نماذجها وأنظمتها إذا لم تتمكن من تخفيف المخاطر.
منذ اجتماع المملكة المتحدة العام الماضي، ركزت صناعة الذكاء الاصطناعي بشكل متزايد على المخاوف الأكثر إلحاحًا، بما في ذلك المعلومات الخاطئة والتضليل، وأمن البيانات، والتحيز، وإبقاء البشر على اطلاع على آخر المستجدات، كما قال أيدن جوميز الرئيس التنفيذي لشركة كوهير، إحدى الشركات الرائدة في مجال الذكاء الاصطناعي. شركات الذكاء الاصطناعي التي وقعت على الاتفاقية. “من الضروري أن نستمر في النظر في جميع المخاطر المحتملة، مع إعطاء الأولوية لجهودنا على تلك التي من المرجح أن تخلق مشاكل إذا لم يتم معالجتها بشكل صحيح.”
تسعى الحكومات في جميع أنحاء العالم جاهدة إلى صياغة لوائح تنظيمية للذكاء الاصطناعي، حتى في الوقت الذي تحقق فيه التكنولوجيا تقدمًا سريعًا وتستعد لتحويل العديد من جوانب الحياة اليومية، من التعليم ومكان العمل إلى حقوق النشر والخصوصية. هناك مخاوف من أن التقدم في الذكاء الاصطناعي قد يؤدي إلى القضاء على الوظائف، نشر معلومات مضللة أو يمكن استخدامها لصنع أسلحة بيولوجية جديدة.
يعد اجتماع هذا الأسبوع مجرد واحد من سلسلة من الجهود المبذولة بشأن حوكمة الذكاء الاصطناعي. الجمعية العامة للأمم المتحدة وافقت على قرارها الأول بشأن الاستخدام الآمن لأنظمة الذكاء الاصطناعي، بينما الولايات المتحدة والصين عقدوا مؤخرًا أول محادثات رفيعة المستوى حول الذكاء الاصطناعي والأولى من نوعها في الاتحاد الأوروبي على مستوى العالم قانون الذكاء الاصطناعي ومن المقرر أن يدخل حيز التنفيذ في وقت لاحق من هذا العام.
__
ساهم تشان في هذا التقرير من لندن. ساهمت الكاتبة في وكالة أسوشيتد برس إديث إم ليدرير من الأمم المتحدة.