الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي هي أصبحت واقعية بشكل متزايد، والذي سوف يصنع اكتشاف التزييف العميق والأنواع الأخرى من المعلومات الخاطئة القائمة على الصور حتى أصعب. لكن فريق DeepMind من Google يعتقد أنه قد يكون لديه حل: أداة خاصة للعلامة المائية تسمى معرف سينثيدي.
تم الإعلان عنه في Google Cloud Next هذا الأسبوع، SynthID عبارة عن شراكة بين فريقي Google Cloud وGoogle DeepMind. الإصدار التجريبي متاح بالفعل للصورة من خلال فيرتكس الذكاء الاصطناعي، منصة الذكاء الاصطناعي التوليدية من Google Cloud. في الوقت الحالي، يعمل فقط مع Imagen، وهو منشئ تحويل النص إلى صورة الشبيه بـ DALL-E 2 من Google، لكن الشركة تفكر في جلب تقنية مماثلة إلى نماذج الذكاء الاصطناعي التوليدية الأخرى المتوفرة على الويب.
بحسب ال إعلان بلوق وظيفة من فريق DeepMind، يعمل SynthID من خلال تضمين “علامة مائية رقمية مباشرة في بكسلات الصورة، مما يجعلها غير محسوسة للعين البشرية، ولكن يمكن اكتشافها لتحديد الهوية”. إنها محاولتهم إيجاد “التوازن الصحيح بين عدم القدرة على الإدراك وقوة معالجة الصور”. تحدٍ صعب، لكنه مهم.
وكما أوضح فريق DeepMind في الإعلان، “في حين أن الذكاء الاصطناعي التوليدي يمكن أن يطلق العنان لإمكانات إبداعية هائلة، فإنه يمثل أيضًا مخاطر جديدة، مثل تمكين المبدعين من نشر معلومات كاذبة – سواء عن قصد أو عن غير قصد”. إن وجود نوع من النظام لمساعدة الأشخاص والمنصات على تحديد المحتوى الناتج عن الذكاء الاصطناعي سيكون أمرًا بالغ الأهمية لوقف انتشار المعلومات الخاطئة.
يدعي الباحثون أن العلامات المائية التقليدية – مثل الشعارات المطبقة أعلى صورة مخزنة – ليست مناسبة للصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لأنها إذا كانت صغيرة، فيمكن تحريرها بجهد قليل جدًا، وإذا كانت كبيرة ومن الواضح أنها “تمثل تحديات جمالية للأغراض الإبداعية أو التجارية”. (بعبارة أخرى، تبدو قبيحة حقًا.)
وبالمثل، في حين كانت هناك محاولات ل تطوير علامات مائية غير محسوسة في الماضي، ادعى باحثو DeepMind أن التلاعبات البسيطة مثل تغيير حجم الصورة يمكن أن تكون كافية لإزالتها.
يعمل SynthID باستخدام نموذجين من نماذج الذكاء الاصطناعي المستندة إلى التعلم العميق: أحدهما لوضع علامة مائية على كل صورة والآخر لتحديد العلامات المائية. تم تدريب النموذجين معًا على نفس “مجموعة الصور المتنوعة”، وتم تحسين النموذج المدمج الناتج لجعل العلامة المائية غير محسوسة قدر الإمكان للبشر ولكن يمكن أيضًا التعرف عليها بسهولة بواسطة الذكاء الاصطناعي.
[متعلقب:[Related:صحيفة نيويورك تايمز هي الأحدث التي تخوض معركة ضد كاشطات الذكاء الاصطناعي]
والأهم من ذلك، أن SynthID تم تدريبه على اكتشاف العلامات المائية المضمنة حتى بعد تحرير الصورة الأصلية. لن تؤدي أشياء مثل الاقتصاص أو التقليب أو التدوير أو إضافة مرشح أو تغيير السطوع أو اللون أو التباين أو استخدام خوارزمية الضغط المفقودة إلى إزالة العلامة المائية من الصورة – أو على الأقل ليس بالقدر الذي لا يستطيع SynthID الاستمرار فيه كشف ذلك. في حين أنه من المفترض أن تكون هناك طرق للتغلب عليها من خلال التحرير القوي، إلا أنها يجب أن تكون قوية جدًا بالنسبة لمعظم التعديلات الشائعة.
وكحاجز حماية إضافي، يتمتع SynthID بثلاثة مستويات للثقة. إذا اكتشف العلامة المائية، فيمكنك أن تكون واثقًا إلى حد ما من أنه تم استخدام Imagen لإنشاء الصورة. وبالمثل، إذا لم يكتشف العلامة المائية ولا تبدو الصورة وكأنها تم تحريرها بشكل لا يمكن تصديقه، فمن غير المحتمل أن تكون الصورة قد تم إنشاؤها بواسطة Imagen. ومع ذلك، إذا اكتشف العلامة المائية (أو، على الأرجح، مناطق من الصورة تشبه العلامة المائية SynthID)، فسوف يوجه تحذيرًا للتعامل معها بحذر.
لا يعد SynthID حلاً فوريًا للتزييف العميق، ولكنه يسمح للمبدعين الأخلاقيين بوضع علامة مائية على صورهم حتى يمكن التعرف عليها على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي. إذا كان شخص ما يستخدم أدوات تحويل النص إلى صورة لإنشاء معلومات خاطئة متعمدة، فمن غير المرجح أن يختار وضع علامة على صوره على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي، ولكن على الأقل يمكن أن يمنع استخدام بعض صور الذكاء الاصطناعي خارج السياق.
يهدف فريق DeepMind إلى أن تكون SynthID جزءًا من “مجموعة واسعة من الأساليب” لتحديد المحتوى الرقمي المنشأ بشكل مصطنع. على الرغم من أنها يجب أن تكون دقيقة وفعالة، إلا أن أشياء مثل البيانات الوصفية والتوقيعات الرقمية وعمليات الفحص البصري البسيطة ستظل جزءًا من تحديد هذه الأنواع من الصور.
من الآن فصاعدا، يقوم الفريق بجمع التعليقات من المستخدمين والبحث عن طرق لتحسين SynthID – فهو لا يزال في مرحلة تجريبية، بعد كل شيء. إنهم يستكشفون أيضًا دمجها مع منتجات Google الأخرى وحتى إطلاقها لأطراف ثالثة “في المستقبل القريب”. إن هدفهم النهائي جدير بالثناء: الذكاء الاصطناعي التوليدي موجود، لذا فإن الأدوات التي تستخدمه تحتاج إلى تمكين “الأشخاص والمنظمات من العمل بشكل مسؤول مع المحتوى الناتج عن الذكاء الاصطناعي”. وإلا فسنواجه الكثير من المعلومات الخاطئة المحتملة.