من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

يورغن فالشل – Stock.adobe.c

قامت Adobe بتوسيع نطاق نظام مكافآت الأخطاء الذي يحركه HackerOne ليشمل العيوب والمخاطر الناشئة عن تطوير الذكاء الاصطناعي التوليدي

بواسطة

نشرت: 03 مايو 2024 الساعة 17:22

قامت شركة Adobe بتوسيع نطاق برنامج مكافأة الأخطاء الخاص به – والتي يشرف عليها متخصصون في HackerOne – لمحاسبة تطويرها الذكاء الاصطناعي التوليدي (AI)، لمكافأة المتسللين الأخلاقيين الذين يكتشفون الثغرات الأمنية في Adobe Firefly ويكشفون عنها بشكل مسؤول، ومنصة الذكاء الاصطناعي التوليدية الخاصة بها، وخدمة بيانات اعتماد المحتوى الخاصة بها.

وقالت المنظمة إنه مع اندماج الذكاء الاصطناعي التوليدي بشكل أوثق في الحياة اليومية للناس، فقد أصبح من المهم أكثر من أي وقت مضى فهم المخاطر الناشئة والتخفيف من حدتها، وأنه من خلال توسيع برنامجها وتعزيز الحوار المفتوح حول الذكاء الاصطناعي الآمن والجدير بالثقة، فإنها تأمل لتشجيع الأفكار ووجهات النظر الجديدة، مع توفير الشفافية وتحسين الثقة.

“تلعب مهارات وخبرات الباحثين الأمنيين دورًا حاسمًا في تعزيز الأمان ويمكنها الآن المساعدة في مكافحة انتشار المعلومات الخاطئة،” دانا راو، نائب الرئيس التنفيذي والمستشار العام ومسؤول الثقة الرئيسي في Adobe.

قال راو: “نحن ملتزمون بالعمل مع الصناعة الأوسع للمساعدة في تعزيز تنفيذ بيانات اعتماد المحتوى لدينا في Adobe Firefly والمنتجات الرئيسية الأخرى لتسليط الضوء على القضايا المهمة وتشجيع تطوير حلول الذكاء الاصطناعي المسؤولة”.

تم إطلاقه في مارس 2023 بعد أن تم تطويره على منصة Sensei الخاصة به، أدوبي اليراع هي عائلة من نماذج الذكاء الاصطناعي الإبداعية للمصممين، والتي تم تدريبها على ملايين الصور من Creative Commons وWikimedia وFlickr Commons، بالإضافة إلى Adobe Stock وغيرها من الصور الموجودة في النطاق العام.

من خلال فتح الخدمة أمام صائدي مكافآت الأخطاء، تريد Adobe من المتسللين أن يولوا اهتمامًا خاصًا لـ OWASP أعلى 10 لنماذج اللغات الكبيرة (LLMs)، النظر في المشكلات الناشئة عن الحقن الفوري أو الكشف عن المعلومات الحساسة أو تسميم بيانات التدريب، لتحديد نقاط الضعف في Firefly

الجزء الثاني من التوسعة يغطي بيانات اعتماد المحتوى، من المفترض أن يساعد في توفير المزيد من الشفافية فيما يتعلق بمصدر العناصر التي تم إنشاؤها باستخدام Firefly. وهي مبنية على معيار C2PA المفتوح وتعمل كبيانات وصفية واضحة للتلاعب حول إنشائها وتحريرها. يتم أيضًا دمج بيانات اعتماد المحتوى عبر عدد من منتجات Adobe إلى جانب Firefly، بما في ذلك Photoshop وLightroom.

“إن بناء منتجات الذكاء الاصطناعي الآمنة والمأمونة يبدأ من خلال إشراك الخبراء الذين يعرفون أكثر عن مخاطر هذه التكنولوجيا. وقال داين شيريتس، ​​كبير مهندسي الحلول في شركة: “إن مجتمع المتسللين الأخلاقيين العالمي يساعد المؤسسات ليس فقط على تحديد نقاط الضعف في الذكاء الاصطناعي التوليدي ولكن أيضًا تحديد ماهية تلك المخاطر”. HackerOne. “نحن نشيد بشركة Adobe لتفاعلها الاستباقي مع المجتمع، فالذكاء الاصطناعي المسؤول يبدأ مع مالكي المنتجات المسؤولين.”

يمكن للمتسللين الأخلاقيين المهتمين بإلقاء نظرة تحت غطاء المحرك العثور على مزيد من المعلومات حول Adobe صفحة HackerOne مخصصةأو إذا كانوا مهتمين بالانضمام إلى برنامج مكافأة اكتشاف الأخطاء الخاص بها، يمكن التقديم هنا.

لمحترفي الإنترنت الذين يشقون طريقهم إلى بي سايدز سان فرانسيسكو وفي عطلة نهاية الأسبوع يومي 4 و5 مايو، ستكون Adobe حاضرة أيضًا في قرية مكافأة الحشراتورعاية حفل ليلة السبت “البائس” حيث “ينسجون الراقصون قصة تفسيرية للصراعات الأخلاقية للتكنولوجيا”.

تنضم Adobe إلى عدد متزايد من شركات التكنولوجيا التي تتخذ خطوات لمعالجة مخاطر الذكاء الاصطناعي التوليدي من خلال برامج مكافآت الأخطاء، من بينها شركة Google، التي وسعت مخطط مكافآت الأخطاء، برنامج مكافآت الضعف (VRP) ليشمل سيناريوهات الهجوم الخاصة بسلسلة توريد الذكاء الاصطناعي التوليدية في أكتوبر 2023.

اقرأ المزيد عن متطلبات أمان التطبيقات والترميز

اقرأ أكثر

تصدر Nintendo إشعارًا بالإزالة بموجب قانون الألفية الجديدة لحقوق طبع ونشر المواد الرقمية ضد أكثر من 8500 مستودعًا لمحاكيات Yuzu
تكتب AMD مدونتها عن 55 عامًا من الابتكار في الشركة، وتذكر "الذكاء الاصطناعي" 23 مرة

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل