على الرغم من أن جوجل وعدت بتسمية الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لمنع الارتباك في وقت سابق من هذا العام، إلا أن نتائج بحث الصور الخاصة بها أصبحت أرضًا خصبة للصور الخادعة التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وقد أثار هذا تساؤلات حول اللوائح الأكثر صرامة بين المستخدمين.
لاحظ إيثان موليك، أستاذ الذكاء الاصطناعي في وارتن، هذا الاتجاه المثير للقلق لأول مرة على X.
وظهر القلق عندما أظهر البحث عن المغني الأسطوري من هاواي “إسرائيل كاماكاويو أولي” صورًا ملفقة باستخدام الذكاء الاصطناعي في نتائج بحث الصور على Google بدلاً من عروضه الحية أو أغلفة الألبومات الشهيرة.
الصورة التي تظهر رجلاً على الشاطئ لا تبدو أصلية مثل الصورة الحقيقية. إنه يحتوي على كل العلامات الدالة على التلاعب بالذكاء الاصطناعي.
ويتجلى ذلك من خلال تأثير العمق الميداني المزيف، الذي قام المبدع بتطبيقه بشكل غير متساو على الصورة. بالإضافة إلى ذلك، تبدو الأنسجة الموجودة على قميص الشخص مشوهة. وحتى اليد اليسرى للرجل فقدت إصبعًا، مما يكشف الحقيقة الأساسية حول استخدام الذكاء الاصطناعي في إنشاء الصورة.
تكمن المشكلة الأكبر في الصور التي ينشئها الذكاء الاصطناعي في نتائج البحث
الجانب المقلق لا يكمن في النقص في صورة تم إنشاؤها بواسطة الذكاء الاصطناعي بل في ظهورها في نتائج بحث جوجل كنتيجة أولية. لا تحتوي الصورة على أي إشارة إلى أنها تم إنشاؤها باستخدام الذكاء الاصطناعي، ولا تحمل أي علامة مائية. وبالتالي، لا يعرف المستخدمون صحة الصورة.
وفي وقت سابق من هذا العام، أعلنت جوجل أنها ستفعل ذلك وضع علامة على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، وتضمينها بالمعلومات اللازمة.
الآن، مع ظهور الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في نتائج الصور لمحركات البحث الأكثر استخدامًا، ظهرت مخاوف بشأن صحتها.
يكمن التفسير المحتمل لهذا الارتباك في خوارزميات Google. تعطي بعض خوارزميات التصنيف التي تستخدمها Google الأولوية لأحدث المعلومات. على الرغم من وفاة Israel Kamakawiwoʻ Ole في عام 1997، إلا أنه لا يوجد ما يكفي من المنشورات أو المدونات الحديثة المتعلقة بالمغني.
وهذا ما يفسر سبب عرض الخوارزمية للصورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي تمت إضافتها مؤخرًا إلى إحدى المنصات عبر الإنترنت.
يمكن أن تكون نتائج البحث المخادعة على Google مشكلة
على الرغم من أن نتيجة البحث هذه لا تبدو مؤثرة جدًا، فقد أثيرت مخاوف بشأن العواقب المحتملة إذا استمر هذا الاتجاه الخادع على Google. تعد هذه الحادثة المعزولة بمثابة مثال صارخ على ضرورة قيام Google بوضع لوائح تتعلق بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
على الأقل، إذا كانت الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي تحمل علامة مائية أو أي علامة أخرى تميزها عن الصور الحقيقية، فيمكن للمستخدمين الحصول على الشفافية. إن غياب مثل هذا الإجراء يمكن أن يؤدي إلى سيناريوهات أكثر تعقيدا في المستقبل.
يمكن أن تكتسب الصور المضللة التي ينشئها الذكاء الاصطناعي مكانة بارزة في نتائج البحث. وبالنظر إلى أن جوجل نفسها مهتمة بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، فهناك احتمال أن يقوم عملاق التكنولوجيا بإدخال محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي في نتائجه دون تحديد أصله. سيؤدي هذا إلى ترك المستخدمين في حيرة من أمرهم للتحقق من أصل هذه الصور بسبب نقص الشفافية.