“height” المحتوى=”600″>”width” المحتوى=”338″>”caption description”>”copyrightHolder”>(حقوق الصورة: Shutterstock / Sundry Photography)
أعلنت جوجل أنها ستبدأ في طرح ميزة جديدة لمساعدة المستخدمين “better understand how a particular piece of content was created and modified”.
ويأتي ذلك بعد انضمام الشركة إلى”inline-link” هريف=”https://c2pa.org/” البيانات-url=”https://c2pa.org/” الهدف=”_blank” سياسة الإحالة=”no-referrer-when-downgrade” البيانات-hl-معالجة=”none”>تحالف منشأ المحتوى وأصالته (C2PA) – مجموعة من العلامات التجارية الكبرى التي تحاول مكافحة انتشار المعلومات المضللة عبر الإنترنت – وساعدت في تطوير أحدث”inline-link” هريف=”https://contentcredentials.org/” البيانات-url=”https://contentcredentials.org/” الهدف=”_blank” سياسة الإحالة=”no-referrer-when-downgrade” البيانات-hl-معالجة=”none”>بيانات اعتماد المحتوى معيار.”inline-link” هريف=”https://www.techradar.com/tag/amazon” رابط البيانات التلقائي للوسوم=”true” البيانات قبل إعادة الكتابة-توطين=”https://www.techradar.com/tag/amazon”>أمازون,”inline-link” هريف=”https://www.techradar.com/tag/adobe” رابط البيانات التلقائي للوسوم=”true” البيانات قبل إعادة الكتابة-توطين=”https://www.techradar.com/tag/adobe”>أدوبي و”inline-link” هريف=”https://www.techradar.com/tag/microsoft” رابط البيانات التلقائي للوسوم=”true” البيانات قبل إعادة الكتابة-توطين=”https://www.techradar.com/tag/microsoft”>مايكروسوفت وهم أيضًا أعضاء في اللجنة.
ومن المقرر إصداره خلال الأشهر المقبلة،”inline-link” هريف=”https://www.techradar.com/tag/google” رابط البيانات التلقائي للوسوم=”true” البيانات قبل إعادة الكتابة-توطين=”https://www.techradar.com/tag/google”>جوجل وتقول الشركة إنها ستستخدم إرشادات بيانات اعتماد المحتوى الحالية – أو ما يعرف ببيانات التعريف الوصفية للصورة – ضمن معلمات البحث لإضافة تسمية إلى الصور التي تم إنشاؤها أو تحريرها بواسطة الذكاء الاصطناعي، مما يوفر المزيد من الشفافية للمستخدمين. تتضمن هذه البيانات الوصفية معلومات مثل أصل الصورة، بالإضافة إلى متى وأين وكيف تم إنشاؤها.
ومع ذلك، فإن معيار C2PA، الذي يمنح المستخدمين القدرة على تتبع أصل أنواع الوسائط المختلفة، تم رفضه من قبل العديد من مطوري الذكاء الاصطناعي مثل Black Forrest Labs – الشركة التي تقف وراء نموذج Flux الذي يستخدمه Grok التابع لشركة X (Twitter سابقًا) لتوليد الصور.
سيتم تنفيذ هذا التمييز بالذكاء الاصطناعي من خلال Google الحالية”inline-link” هريف=”https://blog.google/products/search/google-about-this-image-update-july-2024/” البيانات-url=”https://blog.google/products/search/google-about-this-image-update-july-2024/” الهدف=”_blank” سياسة الإحالة=”no-referrer-when-downgrade” البيانات-hl-معالجة=”none”>حول هذه الصورة النافذة، مما يعني أنها ستكون متاحة أيضًا للمستخدمين من خلال”inline-link” هريف=”https://www.techradar.com/tag/google-lens” رابط البيانات التلقائي للوسوم=”true” البيانات قبل إعادة الكتابة-توطين=”https://www.techradar.com/tag/google-lens”>عدسة جوجل وميزة “الدائرة للبحث” في أندرويد. وعند تفعيلها، سيتمكن المستخدمون من النقر على النقاط الثلاث الموجودة أعلى الصورة وتحديد “About this image” للتحقق مما إذا كان قد تم إنشاؤه بواسطة الذكاء الاصطناعي – لذلك لن يكون واضحًا كما كنا نأمل.
هل هذا يكفي؟
في حين أن جوجل بحاجة إلى القيام بذلك شئ ما فيما يتعلق بالصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي في نتائج البحث، يظل السؤال قائمًا حول ما إذا كان وضع علامة مخفية كافيًا. إذا نجحت الميزة كما هو مذكور، فسيحتاج المستخدمون إلى تنفيذ خطوات إضافية للتحقق مما إذا كانت الصورة قد تم إنشاؤها باستخدام الذكاء الاصطناعي قبل أن تؤكدها Google. أولئك الذين لا يعرفون بالفعل عن وجود ميزة About This Image قد لا يدركون حتى أن هناك أداة جديدة متاحة لهم.
في حين شهدت مقاطع الفيديو المزيفة حالات مثل تلك التي حدثت في وقت سابق من هذا العام عندما”inline-link” هريف=”https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html” البيانات-url=”https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html” الهدف=”_blank” سياسة الإحالة=”no-referrer-when-downgrade” البيانات-hl-معالجة=”none”>تم الاحتيال على موظف في قسم المالية لدفع 25 مليون دولار بالنسبة لمجموعة تتظاهر بأنها مديره المالي، فإن الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي تشكل مشكلة تقريبًا. دونالد ترامب مؤخرًا”inline-link” هريف=”https://truthsocial.com/@realDonaldTrump/posts/112984762512136574″ البيانات-url=”https://truthsocial.com/@realDonaldTrump/posts/112984762512136574″ الهدف=”_blank” سياسة الإحالة=”no-referrer-when-downgrade” البيانات-hl-معالجة=”none”>نشر صورًا رقمية لتايلور سويفت ومعجبيها دعمت بشكل زائف حملته الانتخابية للرئاسة، ووجدت سويفت نفسها ضحية لانتهاك جنسي قائم على الصورة عندما”inline-link” هريف=”https://www.nbcnews.com/tech/misinformation/taylor-swift-nude-deepfake-goes-viral-x-platform-rules-rcna135669″ البيانات-url=”https://www.nbcnews.com/tech/misinformation/taylor-swift-nude-deepfake-goes-viral-x-platform-rules-rcna135669″ الهدف=”_blank” سياسة الإحالة=”no-referrer-when-downgrade” البيانات-hl-معالجة=”none”>صورها العارية التي تم إنشاؤها بواسطة الذكاء الاصطناعي انتشرت على نطاق واسع.
اشترك للحصول على آخر الأخبار والمراجعات والآراء وأفضل العروض التقنية والمزيد.
في حين أنه من السهل الشكوى من أن جوجل لا تبذل جهدًا كافيًا، إلا أن شركة Meta ليست حريصة على إخراج القطة من الحقيبة. عملاق وسائل التواصل الاجتماعي”inline-link” هريف=”https://about.fb.com/news/2024/04/metas-approach-to-labeling-ai-generated-content-and-manipulated-media/” البيانات-url=”https://about.fb.com/news/2024/04/metas-approach-to-labeling-ai-generated-content-and-manipulated-media/” الهدف=”_blank” سياسة الإحالة=”no-referrer-when-downgrade” البيانات-hl-معالجة=”none”>تم التحديث مؤخرا سياستها في جعل العلامات أقل وضوحًا، ونقل المعلومات ذات الصلة إلى قائمة المنشور.
في حين أن هذا الترقية إلى أداة “حول هذه الصورة” هي خطوة أولى إيجابية، إلا أنه ستكون هناك حاجة إلى تدابير صارمة إضافية لإبقاء المستخدمين على اطلاع وحمايتهم. كما ستحتاج المزيد من الشركات، مثل شركات تصنيع الكاميرات ومطوري أدوات الذكاء الاصطناعي، إلى قبول واستخدام العلامات المائية لـ C2PA لضمان فعالية هذا النظام قدر الإمكان حيث ستعتمد Google على هذه البيانات. هناك عدد قليل من نماذج الكاميرات مثل”inline-link” هريف=”https://www.techradar.com/cameras/mirrorless-cameras/meet-the-leica-m11-p-rangefinder-the-worlds-first-anti-ai-camera” البيانات قبل إعادة الكتابة-توطين=”https://www.techradar.com/cameras/mirrorless-cameras/meet-the-leica-m11-p-rangefinder-the-worlds-first-anti-ai-camera”>لايكا M-11P و ال”inline-link” هريف=”https://www.techradar.com/reviews/nikon-z9″ البيانات قبل إعادة الكتابة-توطين=”https://www.techradar.com/reviews/nikon-z9″>نيكون Z9 تتمتع بميزات بيانات اعتماد المحتوى المضمنة، بينما قامت Adobe بتنفيذ إصدار تجريبي في كليهما”inline-link” هريف=”https://www.techradar.com/tag/photoshop” رابط العلامة التلقائي للبيانات=”true” البيانات قبل إعادة الكتابة-توطين=”https://www.techradar.com/tag/photoshop”>فوتوشوب وLightroom. ولكن مرة أخرى، الأمر متروك للمستخدم لاستخدام الميزات وتقديم معلومات دقيقة.
في”inline-link” هريف=”https://uwaterloo.ca/news/media/can-you-tell-ai-generated-people-real-ones#:~:text=Participantswereaskedtolabel,centthresholdthatresearchersexpected.” البيانات-url=”https://uwaterloo.ca/news/media/can-you-tell-ai-generated-people-real-ones#:~:text=Participantswereaskedtolabel,centthresholdthatresearchersexpected.” الهدف=”_blank” سياسة الإحالة=”no-referrer-when-downgrade” البيانات-hl-معالجة=”none”>دراسة أجرتها جامعة واترلولا يستطيع سوى 61% من الأشخاص التمييز بين الصور المولدة بواسطة الذكاء الاصطناعي والصور الحقيقية. وإذا كانت هذه الأرقام دقيقة، فلن يوفر نظام التصنيف الخاص بجوجل أي شفافية إضافية لأكثر من ثلث الأشخاص. ومع ذلك، فهي خطوة إيجابية من جوجل ضد المعركة للحد من المعلومات المضللة عبر الإنترنت، ولكن سيكون من الجيد أن تجعل شركات التكنولوجيا العملاقة هذه التصنيفات أكثر سهولة في الوصول إليها.