من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

“لا أحد منا يمكنه الحصول على الذكاء الاصطناعي بمفرده” –

وعدت سبع شركات بايدن بأنها ستتخذ خطوات ملموسة لتعزيز سلامة الذكاء الاصطناعي.

سبع شركات – بما في ذلك OpenAI و Microsoft و Google و Meta و Amazon و Anthropic و Inflection –قد ارتكب لتطوير التكنولوجيا لوضع علامة مائية واضحة على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. سيساعد ذلك في جعل مشاركة النصوص والفيديو والصوت والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي أكثر أمانًا دون تضليل الآخرين حول صحة هذا المحتوى ، كما تأمل إدارة بايدن.

من غير الواضح حاليًا كيفية عمل العلامة المائية ، ولكن من المحتمل أن يتم تضمينها في المحتوى حتى يتمكن المستخدمون من تتبع أصولها إلى أدوات الذكاء الاصطناعي المستخدمة في إنشائها.

أصبحت تقنية Deepfakes مصدر قلق ناشئ لمستخدمي الإنترنت وصانعي السياسات على حدٍ سواء ، حيث تكافح شركات التكنولوجيا للتعامل مع الاستخدامات المثيرة للجدل لأدوات الذكاء الاصطناعي.

في وقت سابق من هذا العام ، تم استخدام مولد الصور Midjourney لصنعه صور مزيفة لاعتقال دونالد ترامب، والتي انتشرت بعد ذلك على نطاق واسع. في حين أنه كان من الواضح للكثيرين أن الصور كانت مزيفة ، إلا أن Midjourney قرر اتخاذ خطوات لذلك حظر المستخدم الذي صنعها. ربما لو كانت العلامة المائية متاحة في ذلك الوقت ، فلن يواجه هذا المستخدم ، مؤسس شركة Bellingcat إليوت هيغينز ، مثل هذه العواقب الوخيمة لما قال إنه ليس محاولة ليكون ذكيًا أو مزيفًا للآخرين ولكن ببساطة يستمتع مع Midjourney.

ومع ذلك ، هناك إساءة استخدام أخرى أكثر خطورة لأدوات الذكاء الاصطناعي ، حيث قد تساعد العلامة المائية في إنقاذ بعض مستخدمي الإنترنت من الألم والصراع. في وقت سابق من هذا العام ، كان كذلك ذكرت أن برنامج توليد الصوت بالذكاء الاصطناعي قد تم استخدامه لخداع الأشخاص من خلال آلاف الدولارات ، وفي الشهر الماضي فقط ، تم استخدام برنامج حذر مكتب التحقيقات الفدرالي (FBI) من زيادة استخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي في مخططات الابتزاز الجنسي.

البيت الأبيض قال ستمكن العلامة المائية “الإبداع مع الذكاء الاصطناعي من الازدهار ولكنها تقلل من مخاطر الاحتيال والخداع.”

قال OpenAI في أ مدونة أنها وافقت على “تطوير آليات قوية ، بما في ذلك أنظمة المصدر و / أو العلامات المائية للمحتوى الصوتي أو المرئي” ، وكذلك “الأدوات أو واجهات برمجة التطبيقات لتحديد ما إذا كان قد تم إنشاء جزء معين من المحتوى باستخدام نظامهم.” سينطبق هذا على معظم المحتوى الذي تم إنشاؤه بواسطة AI ، مع استثناءات نادرة ، مثل عدم وضع علامة مائية على الأصوات الافتراضية لمساعدي الذكاء الاصطناعي.

قال OpenAI: “المحتوى السمعي البصري الذي يمكن تمييزه بسهولة عن الواقع أو المصمم بحيث يسهل التعرف عليه على أنه تم إنشاؤه بواسطة نظام الذكاء الاصطناعي للشركة – مثل الأصوات الافتراضية لمساعدي الذكاء الاصطناعي – خارج نطاق هذا الالتزام”.

جوجل قال أنه بالإضافة إلى وضع العلامات المائية ، فإنه سيتم أيضًا “دمج البيانات الوصفية” و “التقنيات المبتكرة الأخرى” من أجل “الترويج لمعلومات جديرة بالثقة”.

مع تزايد المخاوف بشأن إساءة استخدام الذكاء الاصطناعي ، سيجتمع الرئيس جو بايدن مع شركات التكنولوجيا اليوم. من المفترض أن يساعد ذلك بايدن والكونغرس على تقديم رؤى رئيسية قبل تطوير أمر تنفيذي وتشريع من الحزبين في محاولة لاستعادة السيطرة على تقنيات الذكاء الاصطناعي المتطورة بسرعة.

في مدونة، أشادت Microsoft بإدارة بايدن لإنشاء “أساس للمساعدة في ضمان بقاء وعد الذكاء الاصطناعي في صدارة مخاطره” و “جمع صناعة التكنولوجيا معًا للتوصل إلى خطوات ملموسة من شأنها أن تساعد في جعل الذكاء الاصطناعي أكثر أمانًا وأكثر أمانًا وفائدة للجمهور”.

قالت مدونة جوجل: “لا أحد منا يمكنه الحصول على الذكاء الاصطناعي بمفرده”.

وعد بمزيد من ضمانات الذكاء الاصطناعي

علاوة على تطوير العلامات المائية للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، قدمت شركات التكنولوجيا مجموعة من الالتزامات الطوعية الأخرى أعلن بالبيت الأبيض يوم الجمعة.

من بينها ، وافقت شركات التكنولوجيا على إجراء اختبارات داخلية وخارجية على أنظمة الذكاء الاصطناعي قبل إصدارها. قالوا أيضًا إنهم سيستثمرون أكثر في الأمن السيبراني ومشاركة المعلومات عبر الصناعة للمساعدة في تقليل مخاطر الذكاء الاصطناعي. وقالت مدونة OpenAI إن هذه المخاطر تشمل كل شيء من الذكاء الاصطناعي الذي يمكّن التحيز أو التمييز إلى تقليل الحواجز أمام تطوير الأسلحة المتقدمة. سلطت مدونة Microsoft الضوء على الالتزامات الإضافية التي تعهدت بها للبيت الأبيض ، بما في ذلك دعم تطوير سجل وطني لتوثيق أنظمة الذكاء الاصطناعي عالية المخاطر.

قالت شركة OpenAI إن قيام شركات التكنولوجيا بهذه الالتزامات “يعد خطوة مهمة في تطوير حوكمة ذكاء اصطناعي فعالة وذات مغزى ، في كل من الولايات المتحدة وحول العالم.” كما وعد صانع ChatGPT و GPT-4 و DALL-E 2 “بالاستثمار في البحث في المجالات التي يمكن أن تساعد في إبلاغ التنظيم ، مثل تقنيات تقييم القدرات الخطرة المحتملة في نماذج الذكاء الاصطناعي.”

ردد رئيس الشؤون العالمية في Meta ، نيك كليج ، أوبن إيه آي ، واصفًا التزامات شركات التكنولوجيا بأنها “خطوة أولى مهمة في ضمان إنشاء حواجز حماية مسؤولة للذكاء الاصطناعي.”

وصفت Google الالتزامات بأنها “علامة فارقة في الجمع بين الصناعة لضمان أن الذكاء الاصطناعي يساعد الجميع”.

يتوقع البيت الأبيض أن رفع معايير الذكاء الاصطناعي سيعزز السلامة والأمن والثقة في الذكاء الاصطناعي ، وفقًا لمسؤول نقلت عنها صحيفة فاينانشيال تايمز. وقال المسؤول “هذه أولوية قصوى بالنسبة للرئيس والفريق هنا”.

اقرأ أكثر

يجب عليك تمكين "التصفح الآمن المحسن" الجديد في Gmail
تعلن GitHub عن إصدار تجريبي عام لتكامل Copilot Chat IDE

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل