قبل عام واحد، في 21 يوليو 2023، أعلنت سبع شركات رائدة في مجال الذكاء الاصطناعي – أمازون، وأنثروبيك، وجوجل، وإنفليكشن، وميتا، ومايكروسوفت، وOpenAI – التي التزمت مع البيت الأبيض بمجموعة من ثمانية التزامات طوعية حول كيفية تطوير الذكاء الاصطناعي بطريقة آمنة وجديرة بالثقة.
وشملت هذه الوعود القيام بأشياء مثل تحسين الاختبار والشفافية حول أنظمة الذكاء الاصطناعي، ومشاركة المعلومات حول الأضرار والمخاطر المحتملة.
في الذكرى السنوية الأولى للالتزامات الطوعية، مراجعة تكنولوجيا معهد ماساتشوستس للتكنولوجيا لقد طلبنا من شركات الذكاء الاصطناعي التي وقعت على الالتزامات تقديم تفاصيل عن عملها حتى الآن. وتظهر ردودهم أن قطاع التكنولوجيا حقق بعض التقدم المرحب به، مع وجود تحذيرات كبيرة.
جاءت الالتزامات الطوعية في وقت كانت فيه هوس الذكاء الاصطناعي التوليدي في أوجها، حيث كانت الشركات تتسابق لإطلاق نماذجها الخاصة وجعلها أكبر وأفضل من نماذج منافسيها. وفي الوقت نفسه، بدأنا نشهد تطورات مثل المعارك حول الذكاء الاصطناعي. حقوق النشر والتزييف العميق. هناك مجموعة ضغط قوية من اللاعبين المؤثرين في مجال التكنولوجيا، مثل جيفري هينتونكما أثارت مخاوف من أن الذكاء الاصطناعي قد يشكل خطرًا وجوديًا على البشرية. وفجأة، بدأ الجميع يتحدثون عن الحاجة الملحة إلى جعل الذكاء الاصطناعي آمنوكانت الجهات التنظيمية في كل مكان تحت ضغوط للقيام بشيء حيال ذلك.
حتى وقت قريب جدًا، كان تطوير الذكاء الاصطناعي أشبه بالغرب المتوحش. تقليديًا، كانت الولايات المتحدة مترددة في تنظيم شركات التكنولوجيا العملاقة لديها، بل كانت تعتمد عليها في تنظيم نفسها. وتشكل الالتزامات الطوعية مثالاً جيدًا على ذلك: فقد كانت من بين أول القواعد التنظيمية لقطاع الذكاء الاصطناعي في الولايات المتحدة، لكنها تظل طوعية وغير قابلة للتنفيذ. ومنذ ذلك الحين أصدر البيت الأبيض قرارًا بفرض قيود على شركات التكنولوجيا العملاقة. أمر تنفيذي، والذي يتوسع في الالتزامات وينطبق أيضًا على شركات التكنولوجيا الأخرى والدوائر الحكومية.
“بعد مرور عام، نرى بعض الممارسات الجيدة تجاه منتجاتهم الخاصة، ولكن [they’re] “لا يوجد شيء قريب من حيث نحتاجهم من حيث الحكم الرشيد أو حماية الحقوق على نطاق واسع”، كما تقول ميرفي هيكوك، رئيسة ومديرة الأبحاث في مركز الذكاء الاصطناعي والسياسة الرقمية، التي راجعت ردود الشركات بناءً على طلب مراجعة تكنولوجيا معهد ماساتشوستس للتكنولوجياويضيف هيكوك أن العديد من هذه الشركات تستمر في دفع ادعاءات لا أساس لها من الصحة حول منتجاتها، مثل القول بأنها قادرة على التفوق على الذكاء والقدرات البشرية.
أحد الاتجاهات التي ظهرت من إجابات شركات التكنولوجيا هو أن الشركات تبذل المزيد من الجهود لمتابعة الحلول التقنية مثل العمل الجماعي (حيث يقوم البشر بفحص نماذج الذكاء الاصطناعي بحثًا عن العيوب) والعلامات المائية للمحتوى الذي يولد بواسطة الذكاء الاصطناعي.
ولكن ليس من الواضح ما هي الالتزامات التي تغيرت وما إذا كانت الشركات ستنفذ هذه التدابير على أي حال، كما يقول ريشي بوماساني، رئيس المجتمع في مركز ستانفورد للأبحاث حول نماذج الأساس، والذي راجع أيضًا الردود على مراجعة تكنولوجيا معهد ماساتشوستس للتكنولوجيا.
عام واحد هو وقت طويل في مجال الذكاء الاصطناعي. منذ توقيع الالتزامات الطوعية، أصبح مؤسس Inflection AI مصطفى سليمان وقد ترك الشركة وانضم إلى مايكروسوفت لقيادة جهود الذكاء الاصطناعي للشركة. ورفض إنفلكشن التعليق.
وتقول روبين باترسون، المتحدثة باسم البيت الأبيض: “نحن ممتنون للتقدم الذي أحرزته الشركات الرائدة نحو الوفاء بالتزاماتها الطوعية بالإضافة إلى ما يتطلبه الأمر التنفيذي”. لكن باترسون تضيف أن الرئيس يواصل دعوة الكونجرس إلى تمرير تشريعات ثنائية الحزبية بشأن الذكاء الاصطناعي.
وتقول براندي نونيكي، مديرة مختبر سياسات CITRIS في جامعة كاليفورنيا في بيركلي، إنه في غياب تشريعات فيدرالية شاملة، فإن أفضل ما تستطيع الولايات المتحدة فعله الآن هو مطالبة الشركات بالوفاء بهذه الالتزامات الطوعية.
ولكن يجدر بنا أن نضع في الاعتبار أن “هذه الشركات لا تزال في الأساس تكتب الامتحان الذي يتم تقييمها من خلاله”، كما يقول نونيكي. “لذا يتعين علينا أن نفكر بعناية فيما إذا كانت هذه الشركات تتحقق من نفسها بطريقة صارمة حقًا أم لا”.
فيما يلي تقييمنا للتقدم الذي أحرزته شركات الذكاء الاصطناعي في العام الماضي.
الالتزام 1
تلتزم الشركات بإجراء اختبارات أمنية داخلية وخارجية لأنظمة الذكاء الاصطناعي الخاصة بها قبل إطلاقها. هذا الاختبار، الذي سيتم تنفيذه جزئيًا بواسطة خبراء مستقلين، يحمي من بعض أهم مصادر مخاطر الذكاء الاصطناعي، مثل الأمن البيولوجي والأمن السيبراني، فضلاً عن آثاره المجتمعية الأوسع.
تقول جميع الشركات (باستثناء Inflection، التي اختارت عدم التعليق) إنها تجري تدريبات على العمل الجماعي الأحمر، حيث تطلب من المختبرين الداخليين والخارجيين فحص نماذجهم بحثًا عن العيوب والمخاطر. تقول OpenAI إنها لديها برنامج منفصل فريق الاستعداد وتختبر الشركة نماذج للأمن السيبراني والتهديدات الكيميائية والبيولوجية والإشعاعية والنووية والمواقف التي يمكن فيها لنموذج الذكاء الاصطناعي المتطور أن يفعل أو يقنع شخصًا بفعل أشياء قد تؤدي إلى الأذى. وتقول أنثروبيك وأوبن إيه آي أيضًا إنهما تجريان هذه الاختبارات مع خبراء خارجيين قبل إطلاق نماذجهما الجديدة. على سبيل المثال، لإطلاق أحدث طراز من أنثروبيك، كلود 3.5، أجرت الشركة اختبار ما قبل النشر مع خبراء في معهد سلامة الذكاء الاصطناعي في المملكة المتحدة. كما سمحت شركة أنثروبيك متر، وهي مؤسسة بحثية غير ربحية، لإجراء “استكشاف أولي” لقدرات Claude 3.5 على الاستقلالية. وتقول Google إنها تجري أيضًا فرقًا داخلية لاختبار حدود نموذجها، Gemini، حول محتوى متعلق بالانتخاباتوتقول مايكروسوفت إنها عملت مع جهات خارجية في NewsGuard، وهي منظمة تعمل على تعزيز نزاهة الصحافة، لتقييم المخاطر والتخفيف من خطر التزييف العميق المسيء في أداة تحويل النص إلى صورة من مايكروسوفت. وبالإضافة إلى العمل الجماعي، تقول شركة Meta إنها قامت بتقييم أحدث طراز لها، Llama 3، لفهم أدائه في سلسلة من مجالات المخاطر مثل الأسلحة والهجمات الإلكترونية واستغلال الأطفال.
ولكن عندما يتعلق الأمر بالاختبار، لا يكفي مجرد الإبلاغ عن قيام الشركة باتخاذ إجراءات، كما يقول بوماساني. على سبيل المثال، قالت أمازون وأنثروبيك إنهما عملتا مع منظمة ثورن غير الربحية لمكافحة المخاطر التي تشكلها الذكاء الاصطناعي على سلامة الأطفال. كان بوماساني يرغب في رؤية المزيد من التفاصيل حول كيفية تقليص التدخلات التي تنفذها الشركات بالفعل لتلك المخاطر.
ويقول بوماساني: “يجب أن يتضح لنا أن الأمر لا يقتصر على أن الشركات تقوم بأشياء ما، بل إن هذه الأشياء لها التأثير المطلوب”.
نتيجة: إن الدفع نحو تشكيل فرق عمل متخصصة واختبار مجموعة واسعة من المخاطر أمر جيد ومهم. ولكن هيكوك كان ليتمنى أن يحصل الباحثون المستقلون على قدر أكبر من القدرة على الوصول إلى نماذج الشركات.
الالتزام 2
تلتزم الشركات بتبادل المعلومات عبر الصناعة ومع الحكومات والمجتمع المدني والأوساط الأكاديمية بشأن إدارة مخاطر الذكاء الاصطناعي. ويشمل ذلك أفضل الممارسات المتعلقة بالسلامة، والمعلومات حول محاولات التحايل على الضمانات، والتعاون الفني.
بعد التوقيع على الالتزامات، أسست Anthropic وGoogle وMicrosoft وOpenAI منتدى Frontier Model، وهي منظمة غير ربحية تهدف إلى تسهيل المناقشات والإجراءات المتعلقة بسلامة الذكاء الاصطناعي ومسؤوليته. كما انضمت أمازون وميتا أيضًا إلى المنتدى.
ويقول بوماساني إن التعاون مع المنظمات غير الربحية التي تمولها شركات الذكاء الاصطناعي قد لا يكون منسجماً مع روح الالتزامات الطوعية. ولكن منتدى Frontier Model قد يكون وسيلة لهذه الشركات للتعاون مع بعضها البعض ونقل المعلومات حول السلامة، وهو ما لا تستطيع القيام به عادة كمنافسين، كما يضيف.
ويقول بوماساني: “حتى لو لم تكن هذه الإجراءات شفافة أمام الجمهور، فإن أحد الأشياء التي قد ترغب في تحقيقها هو أن يتوصلوا على الأقل بشكل جماعي إلى تدابير تخفيفية لتقليل المخاطر بالفعل”.
جميع الموقعين السبعة هم أيضًا جزء من اتحاد معهد سلامة الذكاء الاصطناعي (أيسيك)، التي أنشأها المعهد الوطني للمعايير والتكنولوجيا (NIST)، والتي تضع المبادئ التوجيهية والمعايير لسياسة الذكاء الاصطناعي وتقييم أداء الذكاء الاصطناعي. وهو عبارة عن اتحاد كبير يتكون من مزيج من اللاعبين من القطاعين العام والخاص. كما أن لدى Google وMicrosoft وOpenAI ممثلين في الأمم المتحدة. هيئة استشارية رفيعة المستوى بشأن الذكاء الاصطناعي.
كما سلطت العديد من المختبرات الضوء على تعاونها البحثي مع الأكاديميين. على سبيل المثال، تعد Google جزءًا من MLCommons، حيث عملت مع الأكاديميين على مشروع مشترك بين الصناعات. معيار سلامة الذكاء الاصطناعيوتقول جوجل أيضًا إنها تساهم بشكل نشط بالأدوات والموارد، مثل رصيد الحوسبة، في مشاريع مثل مؤسسة العلوم الوطنية. مشروع تجريبي لمورد أبحاث الذكاء الاصطناعي الوطني، والذي يهدف إلى نشر أبحاث الذكاء الاصطناعي في الولايات المتحدة.
وساهمت العديد من الشركات أيضًا في التوجيه الذي قدمته الشراكة في مجال الذكاء الاصطناعي، وهي منظمة غير ربحية أخرى أسستها أمازون، وفيسبوك، وجوجل، وديب مايند، ومايكروسوفت، وإي بي إم، بشأن نشر نماذج الأساس.
نتيجة: إن الأمر يتطلب المزيد من العمل. ويشكل تبادل المعلومات خطوة مرحب بها في ظل محاولات الصناعة بشكل جماعي لجعل أنظمة الذكاء الاصطناعي آمنة وجديرة بالثقة. ومع ذلك، فمن غير الواضح إلى أي مدى من الجهود المعلن عنها سوف تؤدي بالفعل إلى تغييرات ذات مغزى وإلى أي مدى هي مجرد تجميل.
الالتزام 3
تلتزم الشركات بالاستثمار في الأمن السيبراني وضمانات التهديدات الداخلية لحماية أوزان النماذج الملكية وغير المعلنة. تعد أوزان النماذج هذه الجزء الأكثر أهمية في نظام الذكاء الاصطناعي، وتتفق الشركات على أنه من الأهمية بمكان إصدار أوزان النماذج فقط عند الغرض المقصود وعند مراعاة المخاطر الأمنية.
لقد طبقت العديد من الشركات تدابير جديدة للأمن السيبراني في العام الماضي. على سبيل المثال، أطلقت شركة مايكروسوفت مبادرة المستقبل الآمن لمعالجة النطاق المتزايد للهجمات الإلكترونية. وتقول الشركة إن أوزان نماذجها مشفرة للتخفيف من خطر سرقة النماذج المحتمل، وتطبق ضوابط قوية للهوية والوصول عند نشر نماذج خاصة عالية الكفاءة.
أطلقت جوجل أيضًا مبادرة الدفاع السيبراني بالذكاء الاصطناعي. في شهر مايو OpenAI مشترك ستة تدابير جديدة تعمل على تطويرها لاستكمال ممارساتها الحالية في مجال الأمن السيبراني، مثل توسيع الحماية التشفيرية لأجهزة الذكاء الاصطناعي. كما لديها برنامج منحة الأمن السيبراني، مما يتيح للباحثين الوصول إلى نماذجها لبناء الدفاعات السيبرانية.
أمازون مذكور أنها اتخذت أيضًا تدابير محددة ضد الهجمات الخاصة بالذكاء الاصطناعي التوليدي، مثل تسميم البيانات و حقنة سريعة، حيث يستخدم شخص ما إشارات توجه نموذج اللغة لتجاهل توجيهاته السابقة وحواجز الأمان.
بعد بضعة أيام فقط من توقيع الالتزامات، نشرت أنثروبيك تفاصيل حول حمايتها، والتي تشمل ممارسات الأمن السيبراني الشائعة مثل التحكم في من لديه حق الوصول إلى النماذج والأصول الحساسة مثل أوزان النماذج، وتفتيش ومراقبة سلسلة التوريد التابعة لجهات خارجية. تعمل الشركة أيضًا مع مقيمين مستقلين لتقييم ما إذا كانت عناصر التحكم التي صممتها تلبي احتياجاتها في مجال الأمن السيبراني.
نتيجة: حسنًا، لقد ذكرت جميع الشركات أنها اتخذت تدابير إضافية لحماية نماذجها، على الرغم من أنه لا يبدو أن هناك إجماعًا كبيرًا حول أفضل طريقة لحماية نماذج الذكاء الاصطناعي.
الالتزام 4
تلتزم الشركات بتسهيل اكتشاف الثغرات الأمنية في أنظمة الذكاء الاصطناعي والإبلاغ عنها من قبل أطراف ثالثة. قد تستمر بعض المشكلات حتى بعد إصدار نظام الذكاء الاصطناعي، وتتيح آلية الإبلاغ القوية اكتشافها وإصلاحها بسرعة.
في إطار هذا الالتزام، كانت إحدى الاستجابات الأكثر شعبية هي تنفيذ برامج مكافأة الأخطاء، التي تكافئ الأشخاص الذين يجدون عيوبًا في أنظمة الذكاء الاصطناعي. تمتلك كل من Anthropic وGoogle وMicrosoft وMeta وOpenAI برنامجًا لأنظمة الذكاء الاصطناعي. كما قالت Anthropic وAmazon إنهما لديهما نماذج على مواقعهما على الويب حيث يمكن لباحثي الأمن تقديم تقارير عن الثغرات الأمنية.
تقول براندي نونيكي إن الأمر قد يستغرق منا سنوات عديدة لمعرفة كيفية إجراء التدقيق من قبل طرف ثالث بشكل جيد. “إنه ليس مجرد تحدٍ فني. إنه تحدٍ اجتماعي فني. وتقول: “إن الأمر يستغرق سنوات عديدة حتى نتمكن من فهم ليس فقط المعايير التقنية للذكاء الاصطناعي، بل والمعايير الاجتماعية والتقنية أيضًا، وهو أمر معقد وصعب”.
وتقول نونيكي إنها تشعر بالقلق من أن الشركات الأولى التي تنفذ عمليات التدقيق من قبل أطراف ثالثة قد تضع سوابق سيئة فيما يتصل بكيفية التفكير في المخاطر الاجتماعية والتقنية المرتبطة بالذكاء الاصطناعي ومعالجتها. على سبيل المثال، قد تحدد عمليات التدقيق بعض المخاطر وتقيمها وتعالجها ولكنها تتجاهل مخاطر أخرى.
نتيجة: إن الأمر يتطلب المزيد من العمل. إن مكافآت الأخطاء رائعة، ولكنها ليست شاملة بما فيه الكفاية. وسوف تتطلب القوانين الجديدة، مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي، من شركات التكنولوجيا إجراء عمليات تدقيق، وكان من الرائع أن نرى شركات التكنولوجيا تشارك أمثلة ناجحة لمثل هذه عمليات التدقيق.
الالتزام 5
تلتزم الشركات بتطوير آليات تقنية قوية لضمان معرفة المستخدمين عندما يتم إنشاء المحتوى باستخدام الذكاء الاصطناعي، مثل نظام العلامات المائية. يتيح هذا الإجراء ازدهار الإبداع باستخدام الذكاء الاصطناعي ولكنه يقلل من مخاطر الاحتيال والخداع.
لقد قامت العديد من الشركات بإنشاء علامات مائية للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. على سبيل المثال، أطلقت Google معرف المركب، أداة لإضافة علامات مائية للصور والصوت والنص والفيديو التي تم إنشاؤها بواسطة Gemini. يحتوي Meta على أداة تسمى التوقيع المستقر للصور، و ختم الصوت بالنسبة للكلام الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. تضيف أمازون الآن علامة مائية غير مرئية إلى جميع الصور التي تم إنشاؤها بواسطة Titan Image Generator. تستخدم OpenAI أيضًا العلامات المائية في Voice Engine، وهو نموذج الصوت المخصص لها، وقد أنشأت مصنفًا لاكتشاف الصور للصور التي تم إنشاؤها بواسطة DALL-E 3. كانت Anthropic الشركة الوحيدة التي لم تنشئ أداة لإضافة العلامات المائية، لأن العلامات المائية تُستخدم بشكل أساسي في الصور، وهو ما لا يدعمه نموذج Claude الخاص بالشركة.
جميع الشركات باستثناء Inflection وAnthropic وMeta هي أيضًا جزء من تحالف منشأ المحتوى وأصالته (سي تو بي ايه)، وهو تحالف صناعي يدمج معلومات حول وقت إنشاء المحتوى، وما إذا كان قد تم إنشاؤه أو تحريره بواسطة الذكاء الاصطناعي، في بيانات تعريف الصورة. تقوم Microsoft وOpenAI تلقائيًا بإرفاق بيانات تعريف مصدر C2PA بالصور التي تم إنشاؤها باستخدام DALL-E 3 ومقاطع الفيديو التي تم إنشاؤها باستخدام Sora. في حين أن Meta ليست عضوًا، فقد أعلنت أنها تستخدم معيار C2PA لتحديد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على منصاتها.
ويقول بوماساني إن الشركات الست التي وقعت على الالتزامات “تفضل بشكل طبيعي النهج الأكثر تقنية في التعامل مع المخاطر، ومن المؤكد أن العلامة المائية على وجه الخصوص تتمتع بهذا الطعم”.
“السؤال الطبيعي هو: هل [the technical fix] ويضيف: “إننا بحاجة إلى تحقيق تقدم ملموس ومعالجة المخاوف الاجتماعية الأساسية التي تحفزنا على معرفة ما إذا كان المحتوى يتم إنشاؤه آليًا أم لا”.
نتيجة: جيد. هذه نتيجة مشجعة بشكل عام. ورغم أن العلامة المائية لا تزال تجريبية ولا تزال غير موثوقة، فمن الجيد أن نرى أبحاثًا حولها والتزامًا بمعيار C2PA. إنها أفضل من لا شيء، خاصة خلال عام انتخابي مزدحم.
الالتزام 6
تلتزم الشركات بالإبلاغ علنًا عن قدرات أنظمة الذكاء الاصطناعي الخاصة بها وحدودها ومجالات الاستخدام المناسب وغير المناسب. سيغطي هذا التقرير كلًا من المخاطر الأمنية والمخاطر المجتمعية، مثل التأثيرات على العدالة والتحيز.
إن التزامات البيت الأبيض تترك مجالاً كبيراً للتفسير. على سبيل المثال، تستطيع الشركات من الناحية الفنية الوفاء بهذا الالتزام المتعلق بالإبلاغ العام بمستويات متفاوتة على نطاق واسع من الشفافية، طالما أنها لا تتقيد بهذا الالتزام. شئ ما في هذا الاتجاه العام.
كانت الحلول الأكثر شيوعًا التي قدمتها شركات التكنولوجيا هنا ما يسمى ببطاقات النماذج. كل شركة تطلق عليها اسمًا مختلفًا قليلاً، لكنها في جوهرها تعمل كنوع من وصف المنتج لنماذج الذكاء الاصطناعي. يمكنها معالجة أي شيء من قدرات النموذج وقيوده (بما في ذلك كيفية قياسه وفقًا لمعايير العدالة والقدرة على التفسير) إلى الصدق والمتانة والحوكمة والخصوصية والأمان. قالت أنثروبيك إنها تختبر النماذج أيضًا بحثًا عن مشكلات السلامة المحتملة التي قد تنشأ لاحقًا.
نشرت شركة مايكروسوفت تقريرها السنوي تقرير شفافية الذكاء الاصطناعي المسؤولتقدم هذه الخدمة نظرة ثاقبة حول كيفية بناء الشركة للتطبيقات التي تستخدم الذكاء الاصطناعي التوليدي، واتخاذ القرارات، والإشراف على نشر هذه التطبيقات. وتقول الشركة أيضًا إنها تقدم إشعارًا واضحًا حول مكان وكيفية استخدام الذكاء الاصطناعي داخل منتجاتها.
نتيجة: وتقول هيكوك إن هناك حاجة إلى مزيد من العمل. ومن بين المجالات التي يمكن تحسينها لشركات الذكاء الاصطناعي زيادة الشفافية بشأن هياكل الحوكمة والعلاقات المالية بين الشركات. كما كانت لترغب في أن ترى الشركات أكثر علنية بشأن مصدر البيانات، وعمليات تدريب النماذج، وحوادث السلامة، واستخدام الطاقة.
الالتزام 7
تلتزم الشركات بإعطاء الأولوية للأبحاث المتعلقة بالمخاطر المجتمعية التي يمكن أن تشكلها أنظمة الذكاء الاصطناعي، بما في ذلك تجنب التحيز الضار والتمييز، وحماية الخصوصية. ويُظهِر سجل الذكاء الاصطناعي مدى خطورة هذه المخاطر وانتشارها، وتلتزم الشركات بنشر الذكاء الاصطناعي الذي يخفف من حدتها.
كانت شركات التكنولوجيا مشغولة على صعيد أبحاث السلامة، وقد قامت بدمج نتائجها في المنتجات. قامت أمازون ببناء حواجز أمان لـ Amazon Bedrock يمكنها اكتشاف الهلوسة ويمكنها تطبيق حماية السلامة والخصوصية والصدق. تقول أنثروبيك إنها توظف فريقًا من الباحثين المكرسين لبحث المخاطر المجتمعية والخصوصية. في العام الماضي، دفعت الشركة بأبحاث حول خداع, كسر الحماية، استراتيجيات للتخفيف تمييز، والقدرات الناشئة مثل قدرة النماذج على العبث برموزهم الخاصة أو المشاركة في إقناعوتقول شركة OpenAI إنها دربت نماذجها على تجنب إنتاج محتوى يحض على الكراهية ورفض توليد مخرجات تتعلق بالمحتوى الذي يحض على الكراهية أو المتطرف. كما دربت GPT-4V على رفض العديد من الطلبات التي تتطلب الاستناد إلى الصور النمطية للإجابة عليها. كما أصدرت شركة Google DeepMind أيضًا بحث لتقييم القدرات الخطيرة، وقد قامت الشركة بـ يذاكر حول سوء استخدام الذكاء الاصطناعي التوليدي.
لقد أنفق الجميع الكثير من المال في هذا المجال من البحث. على سبيل المثال، استثمرت شركة جوجل الملايين في إنشاء تطبيق جديد صندوق سلامة الذكاء الاصطناعي لتعزيز البحث في هذا المجال من خلال منتدى نموذج الحدودوتقول مايكروسوفت إنها خصصت 20 مليون دولار من الاعتمادات الحاسوبية لأبحاث المخاطر المجتمعية من خلال الموارد البحثية الوطنية للذكاء الاصطناعي، وبدأت برنامج تسريع أبحاث نماذج الذكاء الاصطناعي الخاص بها للأكاديميين، والذي يسمى برنامج تسريع أبحاث نماذج الأساس. كما قامت الشركة بتعيين 24 زميلاً بحثياً يركزون على الذكاء الاصطناعي والمجتمع.
نتيجة: جيد جدًا. من السهل الوفاء بهذا الالتزام، حيث أن الموقعين عليه هم بعض من أكبر وأغنى مختبرات أبحاث الذكاء الاصطناعي في العالم. وفي حين أن المزيد من البحث في كيفية جعل أنظمة الذكاء الاصطناعي آمنة يعد خطوة مرحب بها، يقول المنتقدون إن التركيز على أبحاث السلامة يستنزف الاهتمام والموارد من أبحاث الذكاء الاصطناعي التي تركز على الأضرار الأكثر إلحاحًا، مثل التمييز والتحيز.
الالتزام 8
تلتزم الشركات بتطوير ونشر أنظمة الذكاء الاصطناعي المتقدمة للمساعدة في معالجة أعظم التحديات التي تواجه المجتمع. من الوقاية من السرطان إلى التخفيف من تغير المناخ إلى الكثير من التحديات الأخرى، يمكن للذكاء الاصطناعي – إذا تمت إدارته بشكل صحيح – أن يساهم بشكل كبير في الرخاء والمساواة والأمن للجميع.
منذ أن اتخذت هذا الالتزام، تعاملت شركات التكنولوجيا مع مجموعة متنوعة من المشاكل. على سبيل المثال، استخدمت شركة فايزر كلود لتقييم الاتجاهات في أبحاث علاج السرطان بعد جمع البيانات ذات الصلة والمحتوى العلمي، واستخدمت شركة جيلياد، وهي شركة أدوية حيوية أمريكية، الذكاء الاصطناعي التوليدي من Amazon Web Services لإجراء تقييمات الجدوى للدراسات السريرية وتحليل مجموعات البيانات.
تتمتع شركة Google DeepMind بسجل حافل في طرح أدوات الذكاء الاصطناعي التي يمكنها مساعدة العلماء. على سبيل المثال، ألفا فولد 3 يمكن التنبؤ ببنية وتفاعلات جميع جزيئات الحياة. هندسة ألفا يمكن حل مسائل الهندسة بمستوى يضاهي مستوى ألمع علماء الرياضيات في المدارس الثانوية في العالم. جرافكاست هو نموذج ذكاء اصطناعي قادر على تقديم توقعات الطقس متوسطة المدى. وفي الوقت نفسه، استخدمت مايكروسوفت صور الأقمار الصناعية والذكاء الاصطناعي لتحسين الاستجابات لـ حرائق الغابات في ماوي والخريطة السكان المعرضون لتغير المناخ، مما يساعد الباحثين على الكشف عن المخاطر مثل انعدام الأمن الغذائي، والهجرة القسرية، والأمراض.
وفي الوقت نفسه، أعلنت OpenAI عن شراكات وتمويل لمشاريع بحثية مختلفة، مثل المشروع الذي يبحث في كيفية استخدام نماذج الذكاء الاصطناعي المتعددة الوسائط بأمان من قبل المتعلمين وبواسطة العلماء في المختبرات كما قدمت أيضًا اعتمادات لمساعدة الباحثين على استخدام منصاتها أثناء هاكاثونات حول تطوير الطاقة النظيفة.
نتيجة: جيد جدًا. بعض الأعمال المتعلقة باستخدام الذكاء الاصطناعي لتعزيز الاكتشافات العلمية أو التنبؤ بالأحداث الجوية مثيرة للاهتمام حقًا. لم تستخدم شركات الذكاء الاصطناعي الذكاء الاصطناعي للوقاية من السرطان بعد، لكن هذا يمثل تحديًا كبيرًا.
بشكل عام، كانت هناك بعض التغييرات الإيجابية في الطريقة التي تم بها بناء الذكاء الاصطناعي، مثل ممارسات العمل الجماعي، والعلامات المائية، وطرق جديدة للصناعة لمشاركة أفضل الممارسات. ومع ذلك، فهذه ليست سوى بضعة حلول تقنية أنيقة للمشكلة الاجتماعية التقنية الفوضوية المتمثلة في ضرر الذكاء الاصطناعي، وهناك حاجة إلى الكثير من العمل. بعد مرور عام، من الغريب أيضًا أن نرى الالتزامات تتحدث عن نوع معين جدًا من سلامة الذكاء الاصطناعي يركز على المخاطر الافتراضية، مثل الأسلحة البيولوجية، وتفشل تمامًا في ذكر حماية المستهلك، والتزييف العميق غير الموافق عليه، والبيانات وحقوق الطبع والنشر، والبصمة البيئية لنماذج الذكاء الاصطناعي. تبدو هذه اليوم وكأنها إغفالات غريبة.