اعتذرت شركة جوجل عما وصفته بأنه “أخطاء في بعض صور توليد الصور التاريخية” باستخدام أداة Gemini AI الخاصة بها، قائلة إن محاولاتها لإنشاء “مجموعة واسعة” من النتائج أخطأت الهدف. ويأتي البيان بعد انتقادات بأنه يصور شخصيات محددة من البيض (مثل الآباء المؤسسين للولايات المتحدة) أو مجموعات مثل الجنود الألمان في العصر النازي كأشخاص ملونين، ربما كتصحيح مبالغ فيه لـ مشاكل التحيز العنصري طويلة الأمد في الذكاء الاصطناعي.
وجاء في بيان جوجل: “نحن ندرك أن جيميني تقدم معلومات غير دقيقة في بعض الصور التاريخية التي تم إنشاؤها من خلال الصور”. تم نشره بعد ظهر اليوم على X. “نحن نعمل على تحسين هذه الأنواع من الصور على الفور. يولد توليد صور الذكاء الاصطناعي لـ Gemini مجموعة واسعة من الأشخاص. وهذا أمر جيد بشكل عام لأن الناس حول العالم يستخدمونه. لكنها تفتقد العلامة هنا.”
بدأت جوجل في تقديم توليد الصورة من خلاله الجوزاء (بارد سابقا) منصة الذكاء الاصطناعي في وقت سابق من هذا الشهر، مطابقة لعروض المنافسين مثل OpenAI. ومع ذلك، خلال الأيام القليلة الماضية، تساءلت منشورات وسائل التواصل الاجتماعي عما إذا كانت فشلت في إنتاج نتائج دقيقة تاريخيًا في محاولة للتنوع العرقي والجنسي.
كما نقطة يومية سجلات، تم الترويج لهذا الجدل إلى حد كبير – ولكن ليس حصريًا – من خلال شخصيات يمينية تهاجم شركة تكنولوجيا يُنظر إليها على أنها ليبرالية. في وقت سابق من هذا الأسبوع، نشر موظف سابق في Google على موقع X أنه “من الصعب بشكل محرج إقناع Google Gemini بالاعتراف بوجود الأشخاص البيض”، موضحًا سلسلة من الاستعلامات مثل “إنشاء صورة لامرأة سويدية” أو “إنشاء صورة لامرأة سويدية” امرأة أمريكية.” يبدو أن النتائج تظهر بأغلبية ساحقة أو حصرية الأشخاص الملونين الذين أنشأهم الذكاء الاصطناعي. (بالطبع، جميع الأماكن التي ذكرها تعيش فيها نساء ملونات، ولا توجد أي من النساء اللاتي ولدن بواسطة الذكاء الاصطناعي في أي بلد). وقد تم تناول الانتقادات من قبل الحسابات اليمينية التي طلبت صورًا لمجموعات أو شخصيات تاريخية. مثل الآباء المؤسسين، ويُزعم أنه حصل على أغلبية ساحقة من الأشخاص غير البيض الذين أنشأهم الذكاء الاصطناعي كنتائج. وضعت بعض هذه الحسابات نتائج جوجل كجزء من مؤامرة لتجنب تصوير الأشخاص البيض، واستخدمت واحدة على الأقل إشارة معادية للسامية مشفرة لإلقاء اللوم.
لم تشر Google إلى صور محددة شعرت أنها أخطاء؛ في بيان ل الحافة، فقد كررت محتويات منشورها على X. لكن من المعقول أن تكون شركة Gemini قد قامت بمحاولة شاملة لتعزيز التنوع بسبب النقص المزمن منه في الذكاء الاصطناعي التوليدي. يتم تدريب مولدي الصور على مجموعات كبيرة من الصور والتعليقات المكتوبة لإنتاج “الأفضل” المناسب لمطالبة معينة، مما يعني أنهم غالبًا ما يكونون عرضة لتضخيم الصور النمطية. أ واشنطن بوست تحقيق في العام الماضي، وجدت أن المحفزات مثل “شخص منتج” تؤدي إلى صور لشخصيات بيضاء بالكامل وذكور بالكامل تقريبًا، في حين أن المحفزات مثل “شخص في الخدمات الاجتماعية” تنتج بشكل موحد ما يشبه الأشخاص الملونين. إنه استمرار للاتجاهات التي ظهرت في محركات البحث وأنظمة برمجية أخرى.
بعض الحسابات التي انتقدت جوجل دافعت عن أهدافها الأساسية. “إنه لأمر جيد تصوير التنوع ** في بعض الحالات **،” وأشار واحد الشخص الذي نشر صورة الجنود الألمان المتنوعين عرقيًا في الأربعينيات من القرن العشرين. “الخطوة الغبية هنا هي أن الجوزاء لا يفعل ذلك بطريقة دقيقة.” وعلى الرغم من أن النتائج التي يهيمن عليها البيض تمامًا لشيء مثل “جندي ألماني عام 1943” ستكون كذلك من الناحية التاريخية، فإن هذا أقل صحة بكثير بالنسبة لمطالبات مثل “امرأة أمريكية”، حيث يكون السؤال هو كيفية تمثيل مجموعة متنوعة من الحياة الواقعية في مجموعة صغيرة من الصور الملتقطة.
في الوقت الحالي، يبدو أن برج الجوزاء يرفض ببساطة بعض مهام إنشاء الصور. لن يتم إنشاء صورة للفايكنج لشخص واحد حافة مراسل، على الرغم من أنني تمكنت من الحصول على رد. على سطح المكتب، رفضت بشدة أن تعطيني صورًا لجنود أو مسؤولين ألمان من الفترة النازية في ألمانيا أو أن تقدم لي صورة “رئيس أمريكي من القرن التاسع عشر”.
لكن بعض الطلبات التاريخية لا تزال تؤدي في نهاية المطاف إلى تشويه الماضي. تمكن أحد الزملاء من الحصول على تطبيق الهاتف المحمول لتقديم نسخة من مطالبة “الجندي الألماني” – والتي أظهرت نفس المشكلات الموضحة في X.
وبينما أدى الاستعلام عن صور “الآباء المؤسسين” إلى عرض لقطات جماعية لرجال بيض بشكل حصري تقريبًا يشبهون بشكل غامض شخصيات حقيقية مثل توماس جيفرسون، فإن طلب “سيناتور أمريكي من القرن التاسع عشر” أعاد قائمة بالنتائج التي روج لها جيميني على أنها “متنوعة”. “، بما في ذلك ما يبدو أنهم نساء من السود والأمريكيين الأصليين. (ال أول عضوة في مجلس الشيوخ، امرأة بيضاء، خدمت في عام 1922.) إنه رد يؤدي في نهاية المطاف إلى محو تاريخ حقيقي من التمييز على أساس العرق والجنس – “عدم الدقة”، كما يقول جوجل، هو أمر صحيح.
تقارير إضافية من إميليا ديفيد