تم تصميم تطبيق الويب الجديد الخاص بها للمساعدة في الإشارة إلى أنه لا ينبغي تضمين العمل في قواعد بيانات تدريب النماذج.
أعلنت شركة Adobe عن أداة جديدة لمساعدة المبدعين على وضع علامة مائية على أعمالهم الفنية وإلغاء الاشتراك في استخدامها لتدريب نماذج الذكاء الاصطناعي الإبداعية.
يسمح تطبيق الويب، المسمى Adobe Content Authenticity، للفنانين بالإشارة إلى أنهم لا يوافقون على استخدام نماذج الذكاء الاصطناعي لعملهم، والتي يتم تدريبها بشكل عام على قواعد بيانات واسعة من المحتوى المستخرج من الإنترنت. كما أنه يمنح المبدعين الفرصة لإضافة ما تسميه Adobe “بيانات اعتماد المحتوى”، بما في ذلك هويتهم التي تم التحقق منها، أو مقابض الوسائط الاجتماعية، أو المجالات الأخرى عبر الإنترنت، إلى عملهم.
تعتمد بيانات اعتماد المحتوى على”https://www.technologyreview.com/2023/07/28/1076843/cryptography-ai-labeling-problem-c2pa-provenance/”>C2PA، بروتوكول الإنترنت يستخدم التشفير لتصنيف الصور والفيديو والصوت بشكل آمن مع معلومات توضح مصدرها، وهو ما يعادل توقيع الفنان في القرن الحادي والعشرين.
على الرغم من أن شركة Adobe قامت بالفعل بدمج بيانات الاعتماد في العديد من منتجاتها، بما في ذلك Photoshop ونموذج الذكاء الاصطناعي الخاص بها”https://www.technologyreview.com/2024/03/26/1090129/how-adobes-bet-on-non-exploitative-ai-is-paying-off/”> اليراع، تسمح Adobe Content Authenticity للمبدعين بتطبيقها على المحتوى بغض النظر عما إذا تم إنشاؤه باستخدام أدوات Adobe. ستطلق الشركة إصدارًا تجريبيًا عامًا في أوائل عام 2025.
يعد التطبيق الجديد خطوة في الاتجاه الصحيح نحو جعل C2PA أكثر انتشارًا ويمكن أن يسهل على المبدعين البدء في إضافة بيانات اعتماد المحتوى إلى عملهم، كما تقول كلير ليبوفيتش، رئيسة قسم الذكاء الاصطناعي وسلامة الوسائط في منظمة Partnership on AI غير الربحية.
وتقول: “أعتقد أن Adobe تقوم على الأقل ببدء محادثة ثقافية، مما يسمح للمبدعين بالحصول على بعض القدرة على التواصل بشكل أكبر والشعور بمزيد من التمكين”. “ولكن ما إذا كان الناس يستجيبون فعليًا لتحذير” لا تتدرب “هو سؤال مختلف.”
ينضم التطبيق إلى مجال مزدهر من أدوات الذكاء الاصطناعي المصممة لمساعدة الفنانين على مقاومة شركات التكنولوجيا، مما يجعل من الصعب على تلك الشركات إلغاء أعمالها المحمية بحقوق الطبع والنشر دون موافقة أو تعويض. في العام الماضي، أصدر باحثون من جامعة شيكاغو”https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/?truid=e007274aa917fc697fdbb4922b473435&utm_source=the_algorithm&utm_medium=email&utm_campaign=the_algorithm.unpaid.engagement&utm_content=10-04-2024&mc_cid=48998693f7&mc_eid=488c2c6a6b”> الباذنجان والصقيل، أداتان تتيحان للمستخدمين إضافة هجوم سام غير مرئي إلى صورهم. أحدهما يتسبب في تعطل نماذج الذكاء الاصطناعي عندما يتم حذف المحتوى المحمي، والآخر يخفي الأسلوب الفني لشخص ما عن نماذج الذكاء الاصطناعي. قامت Adobe أيضًا بإنشاء ملحق لمتصفح Chrome يسمح للمستخدمين بالتحقق من محتوى موقع الويب بحثًا عن بيانات الاعتماد الحالية.
سيتمكن مستخدمو Adobe Content Authenticity من إرفاق الكثير أو القليل من المعلومات التي يريدونها بالمحتوى الذي يقومون بتحميله. نظرًا لأنه من السهل نسبيًا تجريد جزء من المحتوى من البيانات التعريفية الفريدة الخاصة به عن طريق الخطأ أثناء إعداده للتحميل على موقع ويب، تستخدم Adobe مجموعة من الأساليب، بما في ذلك البصمات الرقمية والعلامات المائية غير المرئية بالإضافة إلى البيانات التعريفية المشفرة.
وهذا يعني أن بيانات اعتماد المحتوى ستتبع الصورة أو الصوت أو ملف الفيديو عبر الويب، وبالتالي لن يتم فقدان البيانات إذا تم تحميلها على منصات مختلفة. حتى لو قام شخص ما بالتقاط لقطة شاشة لجزء من المحتوى، تدعي شركة Adobe، أنه لا يزال من الممكن استرداد بيانات الاعتماد.
ومع ذلك، تعترف الشركة بأن الأداة بعيدة كل البعد عن أن تكون معصومة من الخطأ. “أي شخص يخبرك أن العلامة المائية الخاصة به يمكن الدفاع عنها بنسبة 100% فهو يكذب”، كما يقول إيلي جرينفيلد، مدير التكنولوجيا التنفيذي للوسائط الرقمية في Adobe. “هذا هو الدفاع ضد التجريد العرضي أو غير المقصود، على عكس بعض الجهات الفاعلة الشائنة.”
علاقة الشركة بالمجتمع الفني معقدة. في شهر فبراير، قامت شركة Adobe بتحديث شروط الخدمة الخاصة بها لمنحها إمكانية الوصول إلى محتوى المستخدمين “من خلال الطرق الآلية واليدوية”، وللقول إنها تستخدم تقنيات مثل التعلم الآلي من أجل تحسين “خدماتها وبرامجها” المصاغة بشكل غامض. قوبل التحديث برد فعل عنيف كبير من الفنانين الذين اعتبروه يعني أن الشركة تخطط لاستخدام عملهم لتدريب Firefly. أدوبي في وقت لاحق”https://x.com/scottbelsky/status/1799077120884547911″> أوضح أن اللغة تشير إلى ميزات لا تعتمد على الذكاء الاصطناعي التوليدي، بما في ذلك أداة Photoshop التي تزيل الكائنات من الصور.
في حين تقول شركة Adobe إنها لا (ولن تقوم) بتدريب الذكاء الاصطناعي الخاص بها على محتوى المستخدم، فقد جادل العديد من الفنانين بأن الشركة لا تحصل فعليًا على موافقة أو تمتلك حقوق صور المساهمين الأفراد، كما يقول نيل توركيفيتز، وهو فنان ناشط حقوقي ونائب الرئيس التنفيذي السابق لجمعية صناعة التسجيلات الأمريكية.
ويقول: “لن يتطلب الأمر تحولًا كبيرًا لكي تصبح شركة Adobe بالفعل جهة فاعلة أخلاقية حقًا في هذا المجال وتُظهر القيادة”. “لكن من الرائع أن تتعامل الشركات مع المصدر وتحسين أدوات البيانات الوصفية، والتي تعد كلها جزءًا من الحل النهائي لمعالجة هذه المشكلات.”