من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

انتشار ال تعد المعلومات المضللة مشكلة كبيرة على الإنترنت، والذكاء الاصطناعي التوليدي يمثل مشكلة كبيرة فقط المساعدة في تعزيز الخلق من وسائل الإعلام غير الحقيقية أو الحقيقية ولكن المعاد استخدامها. حتى في عصر ما قبل الذكاء الاصطناعي، ربما تم استخدام الصورة التي ظهرت من خلال بحث سريع على Google خارج سياقها أو تم إرفاقها بموقع ويب أقل موثوقية.

تعتقد Google أن لديها حلًا واحدًا على الأقل لهذه المشكلة. في نتائج بحث الصور من Google، سيبدأ المستخدمون في رؤية مربع معلومات يسمى “حول هذه الصورة”. يتم طرحه اليوم في الولايات المتحدة (وفي البداية باللغة الإنجليزية فقط). يأتي ذلك بعد إطلاق “حول هذه النتيجة” في عام 2021، والذي يوفر معلومات إضافية حول مصدر نتيجة بحث Google، و”حول هذا المؤلف” في أوائل عام 2023، والذي يوفر سياقًا حول مؤلف الصفحة.

من المفترض أن توفر أداة الصور الجديدة سياقًا حول ثلاثة مجالات محددة: متى تمت فهرسة الصورة (أو ما شابه ذلك) لأول مرة بواسطة Google، وموقع الويب الذي ربما ظهرت عليه لأول مرة، وأين ظهرت على الإنترنت، مثل وسائل التواصل الاجتماعي. . وتقول Google أيضًا إنها تخطط للإشارة إلى ما إذا كان قد تم التحقق من صحة الصورة من قبل.

فيديو: جوجل

تقول نيدي هيبار، مديرة إدارة منتجات جوجل لمحو الأمية المعلوماتية: “إننا نتطلع إلى الاستثمار في ممارسات الثقافة المعلوماتية، لمساعدة الأشخاص على تقييم مدى موثوقية صورة معينة، بدلاً من مجرد البحث عن الصور عبر الإنترنت”.

تحدثت Google لأول مرة عن “حول هذه الصورة” خلال مؤتمر المطورين في شهر مايو، قائلة إن فريق محو الأمية المعلوماتية بالشركة كان يبني أدوات لمساعدة مستخدمي الإنترنت على اكتشاف المعلومات الخاطئة وفهم أصول الصور المفهرسة في بحث Google بشكل أفضل. وبينما تجنبت جوجل القول بأن هذه الميزة هي استجابة صريحة للصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تغمر الإنترنت، فإن هذا بالتأكيد جزء منها: تجربة الشركة الخاصة بحث عن الخبرة التوليدية سيعرض “حول هذه الصورة” في جميع الصور. سيتم أيضًا وضع علامة مائية على جميع الصور التي تم إنشاؤها على SGE، على غرار الطريقة التي تتميز بها جميع الصور التي تم إنشاؤها بواسطة Bing AI من Microsoft الآن بعلامة مائية رقمية غير مرئية.

قبل الطرح، أظهر هيبار لمجلة WIRED كيف ستعمل ميزة “حول هذه الصورة”. قامت بسحب صور Google لـ Krzywy Domek — the البيت الملتوي— في سوبوت، بولندا. انتقلت بعد ذلك إلى واحدة من أفضل نتائج الصور، والتي تم استضافتها على ويكيبيديا، ونقرت على أيقونة قائمة ثلاثية النقاط التي عرضت “حول هذه الصورة” كخيار. وأشارت الأداة إلى أن هناك نسخة من هذه الصورة عمرها لا يقل عن 10 سنوات. اثنان من أفضل نتائج موقع الويب للصورة (بصرف النظر عن ويكيبيديا) هما Atlas Obscura وHuffington Post، مما يشير إلى بعض الشرعية. على الرغم من أن Krzywy Domek غريب جدًا من الناحية المعمارية تبدو زائفة، يقدم قسم “حول هذه الصورة” من Google إشارة قوية إلى أنها حقيقية.

كانت المعلومات السياقية المقدمة في هذا المثال لنتيجة بحث الصور على Google متفرقة إلى حد ما. وفي حالات أخرى، قد تقدم Google بيانات وصفية أيضًا — متى وأين وكيف تم التقاط الصورة. ويقول هيبار إنها تخطط للقيام بذلك على محرك البحث التوليدي الخاص بها للبدء. ولكن يكاد يكون من المستحيل تحقيق ذلك عبر تريليونات الصور التي تظهر في نتائج بحث Google. وما إذا كانت صورة بحث Google تحتوي على تلك البيانات الوصفية يعتمد إلى حد كبير على ما إذا كان المنشئ الأصلي أو الناشر الذي أنتج الصورة قد اختار تضمين تلك المعلومات في الملف.

وشددت Google على أن حقل البيانات الوصفية في “حول هذه الصورة” لن يكون وسيلة مؤكدة لمعرفة أصول الصورة أو مصدرها. تم تصميمه في الغالب لتوفير المزيد من السياق أو تنبيه مستخدم الإنترنت العادي إذا كانت الصورة أقدم بكثير مما تظهر عليه – مما يشير إلى أنه قد يتم الآن إعادة توظيفها – أو إذا تم وضع علامة عليها على أنها تمثل مشكلة على الإنترنت من قبل.

المصدر والاستدلال والعلامات المائية ومحو الأمية الإعلامية: هذه ليست سوى بعض الكلمات والعبارات التي تستخدمها فرق البحث المكلفة الآن بتحديد الصور المولدة بالكمبيوتر أثناء تكاثرها بشكل كبير. لكن كل هذه الأدوات غير معصومة من الخطأ في بعض النواحي، وتعترف معظم الكيانات – بما في ذلك جوجل – بأن اكتشاف المحتوى المزيف من المرجح أن يكون نهجًا متعدد الجوانب.

WIRED’s كيت نيبز تم الإبلاغ مؤخرًا عن العلامة المائية، الختم الرقمي على النصوص والصور الموجودة على الإنترنت حتى يمكن تتبع أصولها، كواحدة من أكثر الاستراتيجيات الواعدة؛ واعدة جدًا لدرجة أن OpenAI وAlphabet وMeta وAmazon وDeepMind من Google تعمل جميعها على تطوير تكنولوجيا العلامات المائية. تحدث نيبز أيضًا عن مدى سهولة تمكن مجموعات من الباحثين من “إزالة” أنواع معينة من العلامات المائية من الصور الموجودة على الإنترنت.

تعتقد شركة Reality Defender، وهي شركة ناشئة في نيويورك تبيع تقنية الكشف عن التزييف العميق للوكالات الحكومية والبنوك وشركات التكنولوجيا والإعلام، أنه يكاد يكون من المستحيل معرفة “الحقيقة الأساسية” لصور الذكاء الاصطناعي. يقول بن كولمان، المؤسس المشارك للشركة ورئيسها التنفيذي، إن تحديد المصدر أمر معقد لأنه يتطلب موافقة كل مصنع يبيع آلة صنع الصور على مجموعة محددة من المعايير. ويعتقد أيضًا أن العلامات المائية قد تكون جزءًا من مجموعة أدوات اكتشاف الذكاء الاصطناعي، لكنها “ليست أقوى أداة في مجموعة الأدوات”.

يركز Reality Defender بدلاً من ذلك على الاستدلال، وبشكل أساسي، استخدام المزيد من الذكاء الاصطناعي لاكتشاف الذكاء الاصطناعي. يقوم نظامه بمسح أصول النص أو الصور أو الفيديو ويعطي احتمالًا بنسبة 1 إلى 99 بالمائة حول ما إذا كان قد تم التلاعب بالأصل بطريقة ما.

يقول كولمان: “على أعلى مستوى، نحن لا نوافق على أي شرط يضع على عاتق المستهلك مسؤولية التمييز بين المنتجات الحقيقية والمزيفة”. “مع التقدم في الذكاء الاصطناعي والاحتيال بشكل عام، حتى الدكتوراه في غرفتنا لا يمكنها التمييز بين الحقيقي والمزيف على مستوى البكسل.”

إلى هذه النقطة، سيكون “حول هذه الصورة” الخاص بجوجل موجودًا في ظل افتراض أن معظم مستخدمي الإنترنت جانبا من الباحثين والصحفيين سيرغبون في معرفة المزيد عن هذه الصورة، وأن السياق المقدم سيساعد في تنبيه الشخص إذا كان هناك خطأ ما. وتجدر الإشارة إلى أن Google أيضًا هي الكيان الذي كان رائدًا في السنوات الأخيرة في هندسة المحولات التي تشتمل على T في ChatGPT؛ ومبتكر أداة ذكاء اصطناعي توليدية تسمى Bard؛ صانع أدوات مثل الممحاة السحرية والذاكرة السحرية التي تغير الصور وتشوه الواقع. إنه عالم الذكاء الاصطناعي التوليدي لجوجل، ومعظمنا يحاول فقط اكتشاف طريقنا من خلاله.

اقرأ أكثر

Coinbase تناقش سلطة التشفير التابعة لهيئة الأوراق المالية والبورصات في محاولة نهائية لرفض الدعوى القضائية
جوجل يجلب مقارنات الأسعار لعمليات البحث عن إيجارات العطلات

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل