يورغن فالشل – Stock.adobe.c
قامت Adobe بتوسيع نطاق نظام مكافآت الأخطاء الذي يحركه HackerOne ليشمل العيوب والمخاطر الناشئة عن تطوير الذكاء الاصطناعي التوليدي
قامت شركة Adobe بتوسيع نطاق برنامج مكافأة الأخطاء الخاص به – والتي يشرف عليها متخصصون في HackerOne – لمحاسبة تطويرها الذكاء الاصطناعي التوليدي (AI)، لمكافأة المتسللين الأخلاقيين الذين يكتشفون الثغرات الأمنية في Adobe Firefly ويكشفون عنها بشكل مسؤول، ومنصة الذكاء الاصطناعي التوليدية الخاصة بها، وخدمة بيانات اعتماد المحتوى الخاصة بها.
وقالت المنظمة إنه مع اندماج الذكاء الاصطناعي التوليدي بشكل أوثق في الحياة اليومية للناس، فقد أصبح من المهم أكثر من أي وقت مضى فهم المخاطر الناشئة والتخفيف من حدتها، وأنه من خلال توسيع برنامجها وتعزيز الحوار المفتوح حول الذكاء الاصطناعي الآمن والجدير بالثقة، فإنها تأمل لتشجيع الأفكار ووجهات النظر الجديدة، مع توفير الشفافية وتحسين الثقة.
“تلعب مهارات وخبرات الباحثين الأمنيين دورًا حاسمًا في تعزيز الأمان ويمكنها الآن المساعدة في مكافحة انتشار المعلومات الخاطئة،” دانا راو، نائب الرئيس التنفيذي والمستشار العام ومسؤول الثقة الرئيسي في Adobe.
قال راو: “نحن ملتزمون بالعمل مع الصناعة الأوسع للمساعدة في تعزيز تنفيذ بيانات اعتماد المحتوى لدينا في Adobe Firefly والمنتجات الرئيسية الأخرى لتسليط الضوء على القضايا المهمة وتشجيع تطوير حلول الذكاء الاصطناعي المسؤولة”.
تم إطلاقه في مارس 2023 بعد أن تم تطويره على منصة Sensei الخاصة به، أدوبي اليراع هي عائلة من نماذج الذكاء الاصطناعي الإبداعية للمصممين، والتي تم تدريبها على ملايين الصور من Creative Commons وWikimedia وFlickr Commons، بالإضافة إلى Adobe Stock وغيرها من الصور الموجودة في النطاق العام.
من خلال فتح الخدمة أمام صائدي مكافآت الأخطاء، تريد Adobe من المتسللين أن يولوا اهتمامًا خاصًا لـ OWASP أعلى 10 لنماذج اللغات الكبيرة (LLMs)، النظر في المشكلات الناشئة عن الحقن الفوري أو الكشف عن المعلومات الحساسة أو تسميم بيانات التدريب، لتحديد نقاط الضعف في Firefly
الجزء الثاني من التوسعة يغطي بيانات اعتماد المحتوى، من المفترض أن يساعد في توفير المزيد من الشفافية فيما يتعلق بمصدر العناصر التي تم إنشاؤها باستخدام Firefly. وهي مبنية على معيار C2PA المفتوح وتعمل كبيانات وصفية واضحة للتلاعب حول إنشائها وتحريرها. يتم أيضًا دمج بيانات اعتماد المحتوى عبر عدد من منتجات Adobe إلى جانب Firefly، بما في ذلك Photoshop وLightroom.
“إن بناء منتجات الذكاء الاصطناعي الآمنة والمأمونة يبدأ من خلال إشراك الخبراء الذين يعرفون أكثر عن مخاطر هذه التكنولوجيا. وقال داين شيريتس، كبير مهندسي الحلول في شركة: “إن مجتمع المتسللين الأخلاقيين العالمي يساعد المؤسسات ليس فقط على تحديد نقاط الضعف في الذكاء الاصطناعي التوليدي ولكن أيضًا تحديد ماهية تلك المخاطر”. HackerOne. “نحن نشيد بشركة Adobe لتفاعلها الاستباقي مع المجتمع، فالذكاء الاصطناعي المسؤول يبدأ مع مالكي المنتجات المسؤولين.”
يمكن للمتسللين الأخلاقيين المهتمين بإلقاء نظرة تحت غطاء المحرك العثور على مزيد من المعلومات حول Adobe صفحة HackerOne مخصصةأو إذا كانوا مهتمين بالانضمام إلى برنامج مكافأة اكتشاف الأخطاء الخاص بها، يمكن التقديم هنا.
لمحترفي الإنترنت الذين يشقون طريقهم إلى بي سايدز سان فرانسيسكو وفي عطلة نهاية الأسبوع يومي 4 و5 مايو، ستكون Adobe حاضرة أيضًا في قرية مكافأة الحشراتورعاية حفل ليلة السبت “البائس” حيث “ينسجون الراقصون قصة تفسيرية للصراعات الأخلاقية للتكنولوجيا”.
تنضم Adobe إلى عدد متزايد من شركات التكنولوجيا التي تتخذ خطوات لمعالجة مخاطر الذكاء الاصطناعي التوليدي من خلال برامج مكافآت الأخطاء، من بينها شركة Google، التي وسعت مخطط مكافآت الأخطاء، برنامج مكافآت الضعف (VRP) ليشمل سيناريوهات الهجوم الخاصة بسلسلة توريد الذكاء الاصطناعي التوليدية في أكتوبر 2023.
اقرأ المزيد عن متطلبات أمان التطبيقات والترميز
تعمل Adobe على تقديم أدوات GenAI من OpenAI وغيرها
بواسطة: استير أجاو
تساعد Salesforce العملاء على إنشاء برامج مكافأة الأخطاء
بواسطة: أليكس سكروكستون
تقدم Adobe أدوات وتطبيقات GenAI الجديدة للمسوقين
بواسطة: استير أجاو
دفع برنامج مكافآت الأخطاء في Salesforce 3 ملايين دولار في عام 2023
بواسطة: أليكس سكروكستون