صدر للتو”https://futureoflife.org/document/fli-ai-safety-index-2024/” الهدف=”_blank”> مؤشر سلامة الذكاء الاصطناعي قامت بتقييم ست شركات رائدة في مجال الذكاء الاصطناعي فيما يتعلق بجهودها في تقييم المخاطر وإجراءات السلامة… وكانت الأولى في فئتها”https://www.anthropic.com/” الهدف=”_blank”> أنثروبي، بمجموع نقاط C. الشركات الخمس الأخرى – Google DeepMind،”https://spectrum.ieee.org/tag/meta”> ميتا,”https://spectrum.ieee.org/tag/openai”>أوبن إيه آيوxAI وZhipu AI — حصلوا على درجات D+ أو أقل، مع فشل Meta بشكل كامل.
يقول: “الغرض من هذا ليس إحراج أي شخص”.”https://spectrum.ieee.org/interview-max-tegmark-on-superintelligent-ai-cosmic-apocalypse-and-life-3-0″ الهدف=”_blank”> ماكس تيجماركمعهد ماساتشوستس للتكنولوجيا”https://physics.mit.edu/faculty/max-tegmark/” الهدف=”_blank”> أستاذ الفيزياء ورئيس”https://futureoflife.org/” الهدف=”_blank”> معهد مستقبل الحياة، الذي وضع التقرير. “إنها تقديم حوافز للشركات من أجل التحسن.” ويأمل أن ينظر المسؤولون التنفيذيون في الشركة إلى المؤشر مثلما تنظر الجامعات إلى تصنيفات أخبار الولايات المتحدة والتقارير العالمية: قد لا يستمتعون بالحصول على الدرجات، ولكن إذا كانت الدرجات متاحة وتحظى بالاهتمام، فسوف يشعرون بالدافع لتحقيق أداء أفضل في العام المقبل.
ويأمل أيضًا أن يساعد الباحثين العاملين في فرق السلامة في تلك الشركات. يقول تيجمارك، إذا لم تشعر الشركة بضغوط خارجية للوفاء بمعايير السلامة،“عندها سوف ينظر إليك الأشخاص الآخرون في الشركة على أنك مجرد مصدر إزعاج، شخص يحاول إبطاء الأمور وإلقاء الحصى في الآلات.” ولكن إذا أصبح هؤلاء الباحثون في مجال السلامة مسؤولين فجأة عن تحسين سمعة الشركة، فسوف يحصلون على الموارد والاحترام والتأثير.
معهد مستقبل الحياة هو منظمة غير ربحية مكرسة لمساعدة البشرية على درء النتائج السيئة حقا من التقنيات القوية، وفي السنوات الأخيرة ركزت على الذكاء الاصطناعي. وفي عام 2023، طرحت المجموعة ما أصبح يعرف بـ””https://spectrum.ieee.org/ai-pause-letter-stokes-fear” الهدف=”_blank”> حرف الوقفة”، والتي دعت مختبرات الذكاء الاصطناعي إلى القيام بذلك”https://futureoflife.org/open-letter/pause-giant-ai-experiments/” الهدف=”_blank”> وقفة التنمية من النماذج المتقدمة لمدة ستة أشهر، واستغلال ذلك الوقت لتطوير معايير السلامة. أسماء كبيرة مثل”https://spectrum.ieee.org/tag/elon-musk”> إيلون ماسك و”https://spectrum.ieee.org/tag/steve-wozniak”> ستيف وزنياك وقعوا على الرسالة (وحتى الآن، وقع ما مجموعه 33707)، لكن الشركات لم تتوقف.
قد يتم أيضًا تجاهل هذا التقرير الجديد من قبل الشركات المعنية. IEEE نطاق تواصلت مع جميع الشركات للتعليق، ولكن فقط”https://deepmind.google/” الهدف=”_blank”> جوجل ديب مايند أجاب مقدما البيان التالي: “رغم أن الفهرس يتضمن بعضا من”https://spectrum.ieee.org/tag/google”>جوجل بفضل جهود DeepMind في مجال سلامة الذكاء الاصطناعي، وتعكس المعايير المعتمدة في الصناعة، فإن نهجنا الشامل لسلامة الذكاء الاصطناعي يمتد إلى ما هو أبعد مما تم التقاطه. ونحن لا نزال ملتزمين بالتطوير المستمر لتدابير السلامة لدينا إلى جانب التقدم التكنولوجي الذي نحققه.”
كيف قام مؤشر سلامة الذكاء الاصطناعي بتصنيف الشركات
ويصنف المؤشر الشركات على مدى جودة أدائها في ست فئات: تقييم المخاطر، والأضرار الحالية، وأطر السلامة، واستراتيجية السلامة الوجودية، والحوكمة والمساءلة، والشفافية والتواصل. واعتمدت على المعلومات المتاحة للجمهور، بما في ذلك الأوراق البحثية ذات الصلة، ووثائق السياسة، والمقالات الإخبارية، وتقارير الصناعة. كما أرسل المراجعون استبيانًا إلى كل شركة، ولكن فقط”https://x.ai/” الهدف=”_blank”>xAI والشركة الصينية”https://www.zhipuai.cn/” الهدف=”_blank”> زيبو منظمة العفو الدولية (والتي لديها حاليًا شهادة ماجستير في القانون هي الأكثر قدرة في اللغة الصينية) قامت بملء استمارة التقديم الخاصة بها، مما عزز درجات هاتين الشركتين فيما يتعلق بالشفافية.
تم منح الدرجات من قبل سبعة مراجعين مستقلين، بما في ذلك أسماء كبيرة مثل أستاذ جامعة كاليفورنيا في بيركلي”https://spectrum.ieee.org/many-experts-say-we-shouldnt-worry-about-superintelligent-ai-theyre-wrong” الهدف=”_blank”> ستيوارت راسل والفائز بجائزة تورينج”https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/” الهدف=”_blank”> يوشوا بنجيو، الذين قالوا إن الذكاء الاصطناعي الفائق يمكن أن يشكل”https://www.safe.ai/work/statement-on-ai-risk” الهدف=”_blank”> خطر وجودي إلى الإنسانية. ضم المراجعون أيضًا قادة الذكاء الاصطناعي الذين ركزوا على أضرار الذكاء الاصطناعي على المدى القريب مثل التحيز الخوارزمي واللغة السامة، مثل دراسة جامعة كارنيجي ميلون.”https://kasirzadeh.org/” الهدف=”_blank”> أتوسا قصيرزاده و”https://encodeai.org/team-members/sneha-revanur/” الهدف=”_blank”> سنيها ريفانور، مؤسس”https://encodeai.org/” الهدف=”_blank”> ترميز العدالة.
وبشكل عام، لم يعجب المراجعون. يقول راسل: “تشير نتائج مشروع مؤشر سلامة الذكاء الاصطناعي إلى أنه على الرغم من وجود الكثير من النشاط في شركات الذكاء الاصطناعي التي تندرج تحت عنوان “السلامة”، إلا أنها ليست فعالة للغاية بعد”.“على وجه الخصوص، لا يوفر أي من الأنشطة الحالية أي نوع من الضمان الكمي للسلامة؛ ولا يبدو من الممكن تقديم مثل هذه الضمانات في ضوء النهج الحالي في التعامل مع الذكاء الاصطناعي عبر الصناديق السوداء العملاقة المدربة على كميات هائلة من البيانات بشكل لا يمكن تصوره. وسوف يصبح الأمر أكثر صعوبة مع تزايد حجم أنظمة الذكاء الاصطناعي هذه. بمعنى آخر، من الممكن ألا يدعم الاتجاه التكنولوجي الحالي أبدًا ضمانات السلامة الضرورية، وفي هذه الحالة يكون الأمر في الحقيقة طريقًا مسدودًا.
حصلت Anthropic على أفضل الدرجات بشكل عام وأفضل درجة محددة، وحصلت على درجة B الوحيدة لعملها على الأضرار الحالية. ويشير التقرير إلى أن نماذج أنثروبيك قد حصلت على أعلى الدرجات في معايير السلامة الرائدة. كما تمتلك الشركة “”https://www.anthropic.com/news/anthropics-responsible-scaling-policy” الهدف=”_blank”> سياسة التوسع المسؤولة”إلزام الشركة بتقييم نماذجها من حيث قدرتها على التسبب في أضرار كارثية، وعدم نشر النماذج التي تعتبرها الشركة محفوفة بالمخاطر للغاية.
جميع الشركات الست تحجيمها بشكل سيئ بشكل خاص”https://spectrum.ieee.org/artificial-general-intelligence” الهدف=”_blank”> السلامة الوجودية الاستراتيجيات. لاحظ المراجعون أن جميع الشركات أعلنت عن نيتها البناء”https://spectrum.ieee.org/tag/artificial-general-intelligence” الهدف=”_blank”> الذكاء العام الاصطناعي (AGI)، لكن Anthropic، وGoogle DeepMind، وOpenAI هي الوحيدة التي قامت بتوضيح أي نوع من الإستراتيجية لضمان بقاء الذكاء الاصطناعي العام متوافقًا مع القيم الإنسانية. يقول تيجمارك: “الحقيقة هي أنه لا أحد يعرف كيفية السيطرة على أنواع جديدة أكثر ذكاءً منا بكثير”. “شعرت لجنة المراجعة أنه حتى [companies] التي كان لديها نوع من استراتيجيات المرحلة المبكرة، لم تكن كافية.
في حين أن التقرير لا يصدر أي توصيات لشركات الذكاء الاصطناعي أو صانعي السياسات، فإن Tegmark تشعر بقوة أن النتائج التي توصل إليها تظهر حاجة واضحة للرقابة التنظيمية – كيان حكومي يعادل إدارة الغذاء والدواء الأمريكية من شأنه أن يوافق على منتجات الذكاء الاصطناعي قبل وصولها إلى السوق. .
يقول تيجمارك: “أشعر أن قادة هذه الشركات محاصرون في سباق نحو القاع، لا يستطيع أي منهم الخروج منه، بغض النظر عن مدى طيبة قلوبهم”. ويقول إن الشركات اليوم غير راغبة في التباطؤ في اختبارات السلامة لأنها لا تريد أن يتفوق عليها المنافسون في السوق. “في حين أنه إذا كانت هناك معايير للسلامة، فبدلاً من ذلك يكون هناك ضغط تجاري لمعرفة من يمكنه تلبية معايير السلامة أولاً، لأنه بعد ذلك يتعين عليه البيع أولاً وكسب المال أولاً.”