قال البيت الأبيض يوم الجمعة إن العديد من الشركات الأمريكية الكبرى التي تطور الذكاء الاصطناعي وافقت على العمل مع الحكومة الأمريكية والالتزام بالعديد من المبادئ لضمان ثقة الجمهور في الذكاء الاصطناعي.
وقعت كل من Amazon و Anthropic و Google و Inflection و Meta و Microsoft و OpenAI على ملفات إلتزامات لجعل الذكاء الاصطناعي آمنًا وجديرًا بالثقة. في مايو ، قالت إدارة بايدن إنها ستفعل ذلك لقاء مع كبار مطوري الذكاء الاصطناعي للتأكد من أنها كانت متوافقة مع سياسة الولايات المتحدة.
الالتزامات ليست ملزمة ، ولا توجد عقوبات على عدم التقيد بها. لا يمكن للسياسات أن تؤثر بأثر رجعي على أنظمة الذكاء الاصطناعي التي تم نشرها بالفعل – يقول أحد البنود إن الشركات ستلتزم باختبار الذكاء الاصطناعي بحثًا عن نقاط الضعف الأمنية ، داخليًا وخارجيًا ، قبل إطلاقه.
ومع ذلك ، فإن الالتزامات الجديدة مصممة لطمأنة الجمهور (وإلى حد ما المشرعين) بأنه يمكن نشر الذكاء الاصطناعي بشكل مسؤول. كانت إدارة بايدن قد اقترحت بالفعل استخدام الذكاء الاصطناعي داخل الحكومة لتبسيط المهام.
ربما ستشعر بالتأثيرات الفورية فن الذكاء الاصطناعي، حيث اتفقت جميع الأطراف على العلامة المائية الرقمية لتحديد قطعة فنية على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي. بعض الخدمات ، مثل منشئ صور Bing، افعل هذا بالفعل. التزم جميع الموقعين أيضًا باستخدام الذكاء الاصطناعي للصالح العام ، مثل أبحاث السرطان ، فضلاً عن تحديد مجالات الاستخدام المناسب وغير المناسب. لم يتم تعريف هذا ، ولكن يمكن أن يشمل الضمانات الحالية التي تمنع ChatGPT ، على سبيل المثال ، من المساعدة في التخطيط لهجوم إرهابي. كما تعهدت شركات الذكاء الاصطناعي بالحفاظ على خصوصية البيانات ، وهي أولوية أيدتها مايكروسوفت إصدارات المؤسسات من Bing Chat و Microsoft 365 Copilot.
التزمت جميع الشركات باختبار الأمان الداخلي والخارجي لأنظمة الذكاء الاصطناعي الخاصة بها قبل إصدارها ، ومشاركة المعلومات مع الصناعة والحكومات والجمهور والأوساط الأكاديمية حول إدارة مخاطر الذكاء الاصطناعي. كما تعهدوا بالسماح للباحثين التابعين لجهات خارجية بالوصول لاكتشاف نقاط الضعف والإبلاغ عنها.
رئيس مايكروسوفت براد سميث أيد الالتزامات الجديدة ، مع الإشارة إلى أن Microsoft كانت داعية لإنشاء سجل وطني لأنظمة الذكاء الاصطناعي عالية المخاطر. (أ دعا عضو الكونجرس في كاليفورنيا إلى مكتب فيدرالي يشرف على الذكاء الاصطناعي.) كشفت Google أيضًا عن “الفريق الأحمر” الخاص بها من المتسللين الذين يحاولون كسر الذكاء الاصطناعي باستخدام هجمات مثل الهجمات السريعة وإفساد البيانات والمزيد.
“كجزء من مهمتنا لبناء ذكاء اصطناعي آمن ومفيد ، سنواصل ذلكطيار وصقلممارسات حوكمة ملموسة مصممة خصيصًا لنماذج الأساس عالية الكفاءة مثل تلك التي ننتجها “. “سنواصل أيضًا الاستثمار في البحث في المجالات التي يمكن أن تساعد في إبلاغ التنظيم ، مثل تقنيات تقييم القدرات التي يحتمل أن تكون خطرة في نماذج الذكاء الاصطناعي.”