من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

الشهر الماضي متى جوجل قدمت أداة البحث الجديدة بالذكاء الاصطناعي، والتي تسمى لمحات عامة عن الذكاء الاصطناعيوبدت الشركة واثقة من أنها اختبرت الأداة بشكل كافٍ، مشيرة في الإعلان إلى أن “الأشخاص استخدموا بالفعل AI Overviews مليارات المرات من خلال موقعنا”. تجربة في مختبرات البحث.” لا تقوم الأداة بإرجاع الروابط إلى صفحات الويب فقط، كما هو الحال في أداة نموذجية جوجل البحث، ولكنه يعرض إجابة تم إنشاؤها بناءً على مصادر مختلفة، والتي يرتبط بها أسفل الإجابة. ولكن بعد الإطلاق مباشرة، بدأ المستخدمون في النشر أمثلة على إجابات خاطئة للغاية، بما في ذلك وصفة البيتزا التي تحتوي على الغراء والحقيقة المثيرة للاهتمام وهي أن كلبًا لعب في الدوري الاميركي للمحترفين.

يقوم رينيه ديريستا بتتبع المعلومات الخاطئة عبر الإنترنت لسنوات عديدة بصفته مدير الأبحاث الفنية في مرصد الإنترنت بجامعة ستانفورد.

في حين أن وصفة البيتزا من غير المرجح أن تقنع أي شخص بالضغط عليها إلمر، ليست كل الإجابات الخاطئة للغاية في AI Overview واضحة جدًا – وبعضها من المحتمل أن يكون ضارًا للغاية. رينيه ديريستا لقد كان يتتبع المعلومات الخاطئة عبر الإنترنت لسنوات عديدة كمدير للأبحاث الفنية في مرصد الإنترنت في جامعة ستانفورد ولديه كتاب جديد تحدث عن الدعاة عبر الإنترنت الذين “يحولون الأكاذيب إلى واقع”. لقد درست انتشار معلومات طبية خاطئة عبر وسائل التواصل الاجتماعي، لذلك IEEE الطيف تحدثت معها حول ما إذا كان بحث الذكاء الاصطناعي من المحتمل أن يؤدي إلى هجمة من النصائح الطبية الخاطئة للمستخدمين غير الحذرين.

أعلم أنك كنت تتتبع المعلومات المضللة على الويب لسنوات عديدة. هل تتوقع أن يؤدي إدخال أدوات البحث المعززة بالذكاء الاصطناعي مثل Google’s AI Overviews إلى جعل الوضع أسوأ أو أفضل؟

رينيه ديريستا: إنه سؤال مثير للاهتمام حقًا. هناك بعض السياسات التي وضعتها Google منذ فترة طويلة والتي يبدو أنها تتعارض مع ما يخرج من البحث الذي ينشئه الذكاء الاصطناعي. وهذا ما جعلني أشعر بأن جزءًا من هذا هو محاولة Google مواكبة ما ذهب إليه السوق. لقد كان هناك تسارع لا يصدق في إصدار أدوات الذكاء الاصطناعي التوليدية، ونحن نرى شركات التكنولوجيا الكبرى تحاول التأكد من قدرتها على المنافسة. أعتقد أن هذا أحد الأشياء التي تحدث هنا.

لقد عرفنا منذ زمن طويل أن الهلوسة هي أمر يحدث مع نماذج لغوية كبيرة. هذا ليس جديدا. أعتقد أن نشرها في مجال البحث هو أمر تم التعجيل به وغير مدروس لأن الناس يتوقعون من محركات البحث أن تقدم لهم معلومات موثوقة. هذا هو التوقع الذي تراه عند البحث، بينما قد لا يكون لديك هذا التوقع على وسائل التواصل الاجتماعي.

هناك الكثير من الأمثلة على النتائج السيئة بشكل كوميدي من بحث الذكاء الاصطناعي، مثل كم عدد الصخور التي يجب أن نأكلها في اليوم[الردالذيتمرسمهل[aresponsethatwasdrawnforanبصلة شرط]. لكنني أتساءل عما إذا كان ينبغي لنا أن نقلق بشأن المعلومات الطبية الخاطئة الأكثر خطورة. جئت عبر مشاركة مدونة واحدة حول ردود Google’s AI Overviews حول علاجات الخلايا الجذعية. ويبدو أن المشكلة تكمن في أن أداة بحث الذكاء الاصطناعي كانت تحصل على إجاباتها من عيادات سيئة السمعة كانت تقدم علاجات غير مثبتة. هل رأيت أمثلة أخرى على هذا النوع من الأشياء؟

ديريستا: أملك. إنها تعيد المعلومات المركبة من البيانات التي تم تدريبها عليها. المشكلة هي أنه لا يبدو أنها تلتزم بنفس المعايير التي اتبعت منذ فترة طويلة في كيفية تفكير جوجل في عرض نتائج البحث للحصول على معلومات صحية. إذن ما أعنيه بذلك هو أن Google، منذ أكثر من 10 سنوات في هذه المرحلة، كان لديها سياسة بحث تسمى أموالك أو حياتك. هل أنت على دراية بذلك؟

أنا لا أعتقد ذلك.

ديريستا: تقر “أموالك أو حياتك” أنه بالنسبة للاستفسارات المتعلقة بالتمويل والصحة، تتحمل Google مسؤولية إبقاء نتائج البحث على مستوى عالٍ جدًا من الرعاية، ومن الأهمية بمكان الحصول على المعلومات الصحيحة. يأتي الأشخاص إلى Google بأسئلة حساسة ويبحثون عن معلومات لاتخاذ قرارات مؤثرة ماديًا بشأن حياتهم. إنهم ليسوا موجودين للترفيه عندما يطرحون سؤالاً حول كيفية الاستجابة لتشخيص جديد بالسرطان، على سبيل المثال، أو نوع خطة التقاعد التي ينبغي عليهم الاشتراك فيها. لذلك لا تريد أن تكون مزارع المحتوى ومنشورات Reddit العشوائية والقمامة هي النتائج التي يتم إرجاعها. تريد الحصول على نتائج بحث حسنة السمعة.

لقد كان إطار عمل “أموالك أو حياتك” بمثابة مصدر إلهام لعمل Google في هذه المواضيع عالية المخاطر لبعض الوقت. ولهذا السبب أعتقد أنه من المزعج للناس أن يروا نتائج البحث التي يولدها الذكاء الاصطناعي وهي تكرر معلومات صحية خاطئة بشكل واضح من مواقع منخفضة الجودة والتي ربما تصادف وجودها في بيانات التدريب.

لذا، يبدو أن المراجعات العامة للذكاء الاصطناعي لا تتبع نفس السياسة، أم أن هذا ما يبدو عليه الأمر من الخارج؟

ديريستا: هكذا يبدو الأمر من الخارج. لا أعرف كيف يفكرون في الأمر داخليًا. لكن لقطات الشاشة التي تراها – الكثير من هذه الحالات يتم إرجاعها إلى منشور معزول على وسائل التواصل الاجتماعي أو عيادة سيئة السمعة ولكنها موجودة – موجودة على الإنترنت. إنها ليست مجرد اختلاق الأشياء. ولكنها أيضاً لا تعيد ما نعتبره نتيجة عالية الجودة في صياغة استجابتها.

رأيت أن جوجل استجابت لبعض المشاكل مع مشاركة مدونة قائلة إنها على علم بهذه النتائج السيئة وتحاول إجراء تحسينات. ويمكنني أن أقرأ لك النقطة الوحيدة التي تناولت الصحة. وقالت: “بالنسبة لموضوعات مثل الأخبار والصحة، لدينا بالفعل حواجز حماية قوية. وفي حالة الصحة، أطلقنا تحسينات إضافية لتعزيز حماية الجودة لدينا. هل تعرف ماذا يعني هذا؟

ديريستا: مشاركات المدونة هذه هي تفسير لذلك [AI Overviews] ليس ببساطة هلوسة– من المفترض أن تكون حقيقة الإشارة إلى عناوين URL بمثابة حاجز حماية لأن ذلك يمكّن المستخدم من الانتقال ومتابعة النتيجة إلى مصدرها. هذا أمر جيد. ويجب أن تتضمن تلك المصادر من أجل الشفافية، حتى يتمكن الغرباء من مراجعتها. ومع ذلك، فإنه يقع على عاتق الجمهور أيضًا قدر لا بأس به من المسؤولية، نظرًا للثقة التي اكتسبتها Google بمرور الوقت من خلال عرض نتائج عالية الجودة في تصنيفات البحث عن المعلومات الصحية الخاصة بها.

أعلم أن أحد المواضيع التي تابعتها على مر السنين كان المعلومات المضللة حول سلامة اللقاحات. هل رأيت أي دليل على هذا النوع من المعلومات المضللة التي تشق طريقها إلى بحث الذكاء الاصطناعي؟

ديريستا: لم أفعل ذلك، على الرغم من أنني أتخيل أن فرق البحث الخارجية تقوم الآن باختبار النتائج لمعرفة ما يظهر. لقد كانت اللقاحات محورًا كبيرًا للحديث حول المعلومات الصحية الخاطئة لبعض الوقت، وأتصور أن جوجل قد جعلت أشخاصًا يبحثون على وجه التحديد في هذا الموضوع في المراجعات الداخلية، في حين أن بعض هذه المواضيع الأخرى قد تكون أقل في صدارة أذهان الناس. فرق الجودة الموجودة المكلف بالفحص إذا كانت هناك نتائج سيئة يتم إرجاعها.

ما رأيك في خطوات Google التالية لمنع المعلومات الطبية الخاطئة في بحث الذكاء الاصطناعي؟

ديريستا: لدى Google سياسة جيدة تمامًا يجب اتباعها. أموالك أو حياتك هي مبادئ توجيهية أخلاقية قوية لدمجها في هذا المظهر من مظاهر مستقبل البحث. لذلك لا أعتقد أن هناك أساسًا أخلاقيًا جديدًا ومبتكرًا يجب أن يحدث. أعتقد أن هذا يضمن بقاء الأساس الأخلاقي الموجود أساسيًا لأدوات البحث الجديدة الخاصة بالذكاء الاصطناعي.

اقرأ أكثر

رئيس قسم بحث جوجل: أخطاء الذكاء الاصطناعي لن تمنع التقدم
قراصنة كوريا الشمالية يستهدفون شركات العملات المشفرة البرازيلية

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل