البيت الابيض
تشمل الشركات Google و Amazon و Meta و Microsoft و OpenAI
تم النشر في ٢١ يوليو ٢٠٢٣ الساعة ٩:١٤ صباحًا
قالت إدارة بايدن إنها تلقت تعهدات طوعية من أكبر مطوري أنظمة الذكاء الاصطناعي في العالم بأن الشركات ستواصل التطوير بطريقة آمنة ومأمونة.
التزم كل من Google و Amazon و Inflection و Meta و Microsoft و Anthropic و OpenAI بتطوير مثل هذه التقنيات بطريقة “آمنة ومأمونة وشفافة” ، صرح بذلك مسؤول في البيت الأبيض للصحفيين يوم الخميس بشرط عدم الكشف عن هويته ، أثناء مناقشة اجتماع يعقد الجمعة بين كبار المديرين التنفيذيين للشركات والمسؤولين الإداريين.
قال المسؤول إن إدارة بايدن تعد أمرًا تنفيذيًا “سيضمن أن تبذل الحكومة الفيدرالية كل ما في وسعها لتعزيز أمن وسلامة وجديرة بالثقة لمنظمة العفو الدولية وإدارة مخاطرها على الأفراد والمجتمع”.
وقال المسؤول إن البيت الأبيض ينسق أيضا مع جهود في الكونجرس تهدف إلى إقامة “نظام قانوني وتنظيمي”.
زعيم الأغلبية في مجلس الشيوختشارلز إي شومرقام بترتيب سلسلة من الإحاطات لأعضاء مجلس الشيوخ بشأن أنظمة الذكاء الاصطناعي وقال إنه يعتزم وضع تشريع لتنظيم أنظمة الذكاء الاصطناعي في الأشهر القليلة المقبلة. يوم الجمعة ، قال شومر إنه يرحب بالالتزامات الطوعية ، لكنه أضاف أن تسخير الإمكانات أثناء معالجة التحديات التي يطرحها الذكاء الاصطناعي “يتطلب تشريعات لبناء وتوسيع الإجراءات” من قبل البيت الأبيض.
السناتور.مارك وارنررئيس لجنة الاستخبارات بمجلس الشيوخ قال أيضًا إن هناك حاجة إلى “درجة معينة من التنظيم” لضمان قيام شركات الذكاء الاصطناعي “بإعطاء الأولوية للأمن ومكافحة التحيز وطرح تقنيات جديدة بشكل مسؤول.” في أبريل ، كتب وارنر إلى الرؤساء التنفيذيين لشركات التكنولوجيا الكبرى يطلب منهم إعطاء الأولوية للأمن في تصميم وتطوير التقنيات.
قال مسؤول البيت الأبيض إن الشركات التزمت بالتأكد من أن منتجاتها وتقنياتها آمنة قبل إطلاقها علنًا ، وبناء أنظمة مع الأمن كأولوية ، والتأكد من أن المستهلكين والمستخدمين يعرفون المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والإبلاغ العلني عن الاستخدامات غير المناسبة للتكنولوجيا.
قالت بعض الشركات بما في ذلك OpenAI بالفعل إنها تستخدم ما يسمى بالفرق الحمراء ، والتي تتظاهر بمحاكاة أفعال الجهات الفاعلة الشائنة ، لاختبار الضعف في نموذج ChatGPT-4. وقال المسؤول إن التعهدات الطوعية تهدف إلى ضمان أن تتبنى جميع الشركات ممارسات مماثلة ، بالإضافة إلى إجراءات السلامة والأمن والشفافية “للتغلب على المشكلة”.
وقال المسؤول إن أحد الإجراءات التي من شأنها تعزيز هدف الأمان والثقة هو جهود الشركات لتطوير نظام العلامة المائية. قال المسؤول إن شركات التكنولوجيا التزمت بتطوير نظام من شأنه تصنيف محتوى الصوت والفيديو الذي طورته أدوات الذكاء الاصطناعي لتمييزها عن تلك التي ينتجها البشر.
كتب براد سميث ، نائب رئيس مجلس الإدارة ورئيس شركة Microsoft ، في مدونة يوم الجمعة أن الشركة ستتجاوز تلك الالتزامات من خلال التعاون مع National Science Foundation لاستكشاف إنشاء مورد بحثي وطني للذكاء الاصطناعي من شأنه تسهيل البحث المستقل من قبل الأكاديميين حول أمان الذكاء الاصطناعي. كتب سميث أن الشركة ستدعم أيضًا إنشاء سجل وطني لأنظمة الذكاء الاصطناعي عالية المخاطر.
كما التزمت الشركات أيضًا بمشاركة المعلومات مع بعضها البعض ومع الباحثين الأكاديميين والوكالات الحكومية وجماعات المجتمع المدني حول أفضل الممارسات والمعلومات حول إدارة المخاطر ، وفقًا للبيت الأبيض.بيان حقائق.
قالت ورقة الحقائق أيضًا إن الشركات التزمت بالسماح لباحثي الطرف الثالث بالعثور على نقاط الضعف في أنظمة الذكاء الاصطناعي والإبلاغ عنها.