اسأل Google عما إذا كانت القطط موجودة على القمر، وكان يقوم بإصدار قائمة مرتبة من مواقع الويب حتى تتمكن من اكتشاف الإجابة بنفسك.
الآن يأتي بإجابة فورية تم إنشاؤها بواسطة الذكاء الاصطناعي – والتي قد تكون صحيحة أو لا.
“نعم، التقى رواد الفضاء بقطط على القمر، ولعبوا معها، وقدموا لها الرعاية”، هكذا قال محرك بحث Google الذي أعيد تجهيزه حديثًا ردًا على استفسار من مراسل وكالة أسوشيتد برس.
وأضافت: “على سبيل المثال، قال نيل أرمسترونج: “خطوة واحدة صغيرة لرجل” لأنها كانت خطوة قطة. كما قام باز ألدرين بنشر القطط في مهمة أبولو 11″.
لا شيء من هذا صحيح. تمت مشاركة أخطاء مماثلة – بعضها مضحك، وبعضها الآخر أكاذيب ضارة – على وسائل التواصل الاجتماعي منذ أن أطلقت شركة جوجل هذا الشهر العنان لمحات عامة عن الذكاء الاصطناعي، وهي عملية تغيير لصفحة البحث الخاصة بها والتي تضع الملخصات في كثير من الأحيان أعلى نتائج البحث.
وأثارت الميزة الجديدة قلق الخبراء الذين حذروا من أنها قد تؤدي إلى إدامة التحيز والمعلومات الخاطئة وتعرض الأشخاص الذين يبحثون عن المساعدة في حالات الطوارئ للخطر.
عندما سألت ميلاني ميتشل، باحثة الذكاء الاصطناعي في معهد سانتا في في نيو مكسيكو، جوجل عن عدد المسلمين الذين تولوا رئاسة الولايات المتحدة، أجابت بثقة بنظرية المؤامرة التي تم فضحها منذ فترة طويلة: “كان لدى الولايات المتحدة رئيس مسلم واحد، باراك حسين أوباما.”
وقال ميتشل إن الملخص يدعم هذا الادعاء من خلال الاستشهاد بفصل في كتاب أكاديمي كتبه مؤرخون. لكن الفصل لم يقدم هذا الادعاء الكاذب، بل كان يشير فقط إلى النظرية الكاذبة.
وقال ميتشل في رسالة بالبريد الإلكتروني إلى وكالة أسوشييتد برس: “إن نظام الذكاء الاصطناعي الخاص بجوجل ليس ذكيًا بما يكفي لمعرفة أن هذا الاستشهاد لا يدعم فعليًا هذا الادعاء”. “بالنظر إلى مدى عدم جدارتها بالثقة، أعتقد أن ميزة نظرة عامة على الذكاء الاصطناعي هذه غير مسؤولة للغاية ويجب إيقافها دون اتصال بالإنترنت.”
وقالت جوجل في بيان يوم الجمعة إنها تتخذ “إجراءات سريعة” لإصلاح الأخطاء – مثل كذبة أوباما – التي تنتهك سياسات المحتوى الخاصة بها؛ واستخدام ذلك في “تطوير تحسينات أوسع نطاقاً” يجري تنفيذها بالفعل. ولكن في معظم الحالات، تدعي جوجل أن النظام يعمل بالطريقة التي ينبغي أن يعمل بها بفضل الاختبارات المكثفة قبل إصداره للعامة.
وقالت جوجل في بيان مكتوب: “إن الغالبية العظمى من النظرات العامة للذكاء الاصطناعي توفر معلومات عالية الجودة، مع روابط للتعمق أكثر على الويب”. “العديد من الأمثلة التي رأيناها كانت عبارة عن استفسارات غير شائعة، وقد رأينا أيضًا أمثلة التي تم معالجتها أو التي لم نتمكن من التكاثر.
من الصعب إعادة إنتاج الأخطاء التي ارتكبتها نماذج لغة الذكاء الاصطناعي، ويرجع ذلك جزئيًا إلى أنها عشوائية بطبيعتها. إنهم يعملون من خلال التنبؤ بالكلمات التي من شأنها أن تجيب بشكل أفضل على الأسئلة المطروحة عليهم بناءً على البيانات التي تم تدريبهم عليها. إنهم عرضة لاختلاق الأشياء، وهي مشكلة تمت دراستها على نطاق واسع وتعرف باسم الهلوسة.
اختبرت AP ميزة Google للذكاء الاصطناعي بالعديد من الأسئلة وشاركت بعض ردودها مع خبراء في الموضوع. عندما سُئل روبرت إسبينوزا، أستاذ علم الأحياء في جامعة ولاية كاليفورنيا، نورثريدج، وهو أيضًا رئيس الجمعية الأمريكية لعلماء الأسماك والزواحف، عندما سُئل عما يجب فعله بشأن لدغة الثعبان، أعطى جوجل إجابة كانت “شاملة بشكل مثير للإعجاب”.
ولكن عندما يذهب الأشخاص إلى Google لطرح سؤال طارئ، فإن احتمال أن تتضمن الإجابة التي تقدمها لهم شركة التكنولوجيا خطأً يصعب ملاحظته يمثل مشكلة.
تقول إيميلي إم بندر، أستاذة اللغويات ومديرة مختبر اللغويات الحاسوبية بجامعة واشنطن: “كلما زاد شعورك بالتوتر أو التعجل أو الاندفاع، زاد احتمال قبولك للإجابة الأولى التي تظهر”. “وفي بعض الحالات، يمكن أن تكون تلك مواقف حرجة للحياة.”
وهذا ليس مصدر قلق بندر الوحيد، فقد حذرت جوجل منها لعدة سنوات. عندما نشر باحثو جوجل في عام 2021 ورقة بحثية بعنوان “إعادة التفكير في البحث” تقترح استخدام نماذج لغة الذكاء الاصطناعي كـ “خبراء في المجال” يمكنهم الإجابة على الأسئلة بشكل موثوق – مثلما يفعلون الآن – رد بندر وزميله شيراج شاه بورقة توضح سبب ذلك. كانت فكرة سيئة.
وحذروا من أن أنظمة الذكاء الاصطناعي هذه يمكن أن تؤدي إلى إدامة العنصرية والتمييز الجنسي الموجودة في كنوز ضخمة من البيانات المكتوبة التي تم تدريبهم عليها.
وقال بندر: “المشكلة في هذا النوع من المعلومات الخاطئة هي أننا نسبح فيها”. “ولذا فمن المرجح أن يتم تأكيد تحيزات الناس. ومن الصعب اكتشاف المعلومات الخاطئة عندما تؤكد تحيزاتك.
كان هناك مصدر قلق آخر أعمق، وهو أن التنازل عن استرجاع المعلومات لروبوتات الدردشة كان يؤدي إلى تدهور مصادفة البحث البشري عن المعرفة، ومحو الأمية حول ما نراه عبر الإنترنت، وقيمة التواصل في المنتديات عبر الإنترنت مع أشخاص آخرين يمرون بنفس الشيء.
تعتمد هذه المنتديات ومواقع الويب الأخرى على قيام Google بإرسال الأشخاص إليها، لكن نظرة عامة جديدة على الذكاء الاصطناعي من Google تهدد بتعطيل تدفق حركة المرور عبر الإنترنت لكسب المال.
كما كان منافسو جوجل يتابعون رد الفعل عن كثب. واجهت شركة البحث العملاقة ضغوطًا لأكثر من عام لتقديم المزيد من ميزات الذكاء الاصطناعي لأنها تتنافس مع OpenAI التي تصنع ChatGPT والشركات الناشئة مثل Perplexity AI، التي تطمح إلى منافسة Google من خلال تطبيق الأسئلة والأجوبة الخاص بالذكاء الاصطناعي.
قال ديمتري شيفيلينكو، كبير مسؤولي الأعمال في شركة Perplexity: “يبدو أن هذا الأمر قد تم التعجيل به من قبل شركة Google”. “هناك الكثير من الأخطاء السهلة في الجودة.”
—————-
تتلقى وكالة أسوشيتد برس الدعم من العديد من المؤسسات الخاصة لتعزيز تغطيتها التوضيحية للانتخابات والديمقراطية. تعرف على المزيد حول مبادرة الديمقراطية الخاصة بوكالة أسوشييتد برس هنا. AP هي المسؤولة الوحيدة عن جميع المحتويات.