في حادثة مؤسفة، أرسلت شركة جوجل تنبيهًا إخباريًا تم إنشاؤه آليًا بواسطة الذكاء الاصطناعي، احتوى على لفظ عنصري مسيء. جاء هذا التنبيه مرتبطًا بخبر حول حفل توزيع جوائز BAFTA السينمائي، حيث ظهرت الكلمة النابية في الإشعار المصاحب للرابط الإخباري.
تفاصيل الحادثة والاعتذار الرسمي
تم لفت انتباه المستخدمين إلى هذه المشكلة عبر منصة إنستغرام، حيث شارك أحد المستخدمين لقطة شاشة للتنبيه مع تعليق ساخر حول فترة الاحتفال بشهر تاريخ السود. وقد سارعت جوجل بالاعتذار عن هذا الخطأ، مؤكدةً على أنها قامت “بإزالة التنبيه المسيء” وأنها تعمل على “منع تكرار مثل هذه الحوادث”.
سياق حادثة BAFTA وتداعياتها
يأتي هذا التنبيه المثير للجدل في أعقاب حادثة وقعت خلال حفل توزيع جوائز BAFTA، حيث أطلق شخص يعاني من متلازمة توريت لفظًا عنصريًا غير إرادي أثناء صعود ممثلين على المسرح. وقد أوضح الشخص المعني حينها أنه كان “مرتبكًا بشدة إذا اعتبر أي شخص تشنجاته اللاإرادية مقصودة أو تحمل أي معنى”. وقد أثارت الحادثة غضبًا واسعًا ونقاشًا متجددًا حول تحديات العيش مع التشنجات اللاإرادية الصوتية.
أخطاء الذكاء الاصطناعي وتجارب سابقة
تُظهر هذه الحادثة مرة أخرى كيف يمكن لأنظمة الذكاء الاصطناعي أن ترتكب أخطاءً فادحة. وتجدر الإشارة إلى أن هذه ليست المرة الأولى التي تتسبب فيها إشعارات الأخبار المدعومة بالذكاء الاصطناعي بمشاكل. ففي العام الماضي، اضطرت شركة آبل إلى إلغاء خاصية مماثلة للإشعارات الفورية المدعومة بالذكاء الاصطناعي بعد أن ارتكبت الأداة سلسلة من الأخطاء المحرجة، بما في ذلك تضليل القراء حول تفاصيل قضية جنائية.
تؤكد هذه الوقائع على الحاجة الملحة لضمان الدقة والرقابة الصارمة على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، خاصة عند التعامل مع مواضيع حساسة لضمان عدم تكرار مثل هذه الأخطاء المؤسفة.