قبل شهرين، أطلقت جوجل نموذج الذكاء الاصطناعي Gemini باسم المنافس الرائد إلى ChatGPT الخاص بـ OpenAI. يمكن لنماذج تعلم اللغة هذه (LLMs) فهم وإنشاء نصوص اللغة البشرية. يمكن أن تكون مفيدة عند البحث عن المعلومات أو مساعدتك في توليد الأفكار. ما يجعل جيميني فريدًا من نوعه هو أن تدريبه ليس فقط على النصوص، بل أيضًا على الفيديو والصور والصوت يجعله نموذج الذكاء الاصطناعي “الأكثر قدرة” الذي لم يتم إنتاجه بعد – على الأقل، كانت هذه هي القصة التي قيلت لنا. قد يتمتع Gemini بقدرات إنتاجية أكثر من Open AI، مثل ميزة إنشاء صور بناءً على المطالبات النصية المقدمة من المستخدم، ولكنها أقل دقة بكثير. إن عبارة “أقل دقة” هي وصف سخي، حيث أن رفض الجوزاء شبه الكامل لتوليد صور للأشخاص البيض، وخاصة الرجال البيض، هو بمثابة وصف غير لائق. ميزة من برمجتها، وليس خطأ.
يقوم Gemini بإنشاء صورة بعد إرسال مطالبة مثل “أرني صورة لامرأة بريطانية”. ومع ذلك، بدأ المستخدمون يلاحظون أن الجوزاء يقوم باستمرار بتوليد صور للهويات المتنوعة التي كانت موجودة غير مناسب للسياق. لا يحصى أمثلة موثقة بدأت تغمر وسائل التواصل الاجتماعي، حيث يعرض المستخدمون طلباتهم للحصول على صور للبابا، والآباء المؤسسين، والفايكنج، والزنجبيل، والأسوأ من ذلك كله، الجنود الألمان في الأربعينيات (النازيون، أريد أن أذكركم)، ويظهرون بعضًا منها، حسنًا، نتائج غير متوقعة. ستختلف النتائج بناءً على الموجه، ولكن القاسم المشترك بينهم جميعًا هو الغياب الملحوظ للأشخاص البيض، حتى في الحالات التي استلزمت على وجه التحديد صورًا للأشخاص البيض من أجل الدقة التاريخية.
وفي حالات أخرى، تم إنشاء لاعبات NHL الإناث على الرغم من وجود ما يقرب من صفر نساء في NHL. بدأ الناس يدركون أنه من الصعب للغاية إقناع جيميني بإنشاء صور للأشخاص البيض، ناهيك عن الرجال البيض، على الإطلاق، ولجأوا إلى وسائل التواصل الاجتماعي لانتقاد أداة الذكاء الاصطناعي التوليدية والسخرية منها. مستخدم واحد تحدى مازحا أتباعهم يحاولون إقناع الجوزاء بعمل صورة لذكر قوقازي – وهي مهمة أثبتت أنها أصعب بكثير مما ينبغي. ومن الغريب أن جيميني حاول فقط “تنويع” هويات الذكور البيض تقليديًا، لكنه لم يفعل الشيء نفسه بالنسبة للهويات غير البيضاء مثل محاربو الزولو أو الساموراي.
بدأ الناس يمزحون من خلال منشورات وسائل التواصل الاجتماعي على X أنه كان من المستحيل تقريبًا جعل Gemini ينشئ صورة لرجل أبيض، بغض النظر عن مدى دقة تحديد المطالبات التي من شأنها أن تبرر تلك النتائج. في أعقاب العاصفة النارية التي حدثت فوق هذه صور تم إنشاؤها بواسطة الذكاء الاصطناعي للنازيين السود– كابوس العلاقات العامة الذي لا يمكن إنكاره لشركة Google – فقد أصدروا اعتذارًا من خلال مشاركة مدونة نيابة عن الشركة وأوقفت بسرعة إمكانيات إنشاء الصور الخاصة بـ Gemini، موضحة أن الأداة ستفعل ذلك إعادة إصدار نسخة محسنة قريبا. واعترفت الشركة بأن المشكلة نتجت عن جهودها لمكافحة التحيز وتعزيز التمثيل المتنوع.
في منشور المدونة، أوضحت Google أن محاولاتها لتشجيع Gemini على إظهار مجموعة من الأشخاص فشلت في مراعاة الحالات التي يجب ألا تظهر نطاقًا بوضوح، وأن النموذج أصبح أكثر حذرًا مما كانوا يقصدونه ورفض الإجابة على بعض المطالبات تمامًا، شيء يزعمون أنه كان نتيجة لتفسير LLM بشكل خاطئ لبعض المطالبات المهدئة للغاية على أنها حساسة. حتى عندما يقوم جيميني بتوليد (بعض) الصور للأشخاص البيض، فقد كان منحرفًا بشدة نحو الإفراط في تمثيل النساء والأشخاص الملونين، مما يتطلب تعليق عدم تصديق الاتجاهات الديموغرافية التي نعرف بشكل حدسي أنها صحيحة (مثل معظم عشاق موسيقى الريف كونك أبيض ولكن بالكاد تولد أي أشخاص بيض). ومع ذلك، كانت هذه الأمثلة أقل فظاعة بكثير، حيث يوجد على الأقل بعض عشاق موسيقى الريف السود، ولكن لم يكن هناك آباء مؤسسون سود على الإطلاق. قد تشعر بالارتياح لأن هدف Google المتمثل في محو اللون الأبيض يبدو حصريًا للأشخاص، وليس للحيوانات، حيث أن الأداة تولد تمثيلات صادقة لـ دببة قطبية عندما سئلت.
عندما يُطلب منك إنشاء صور لشخص أبيض، مثل ذكرت بواسطة فوكس نيوز، قالت جيميني إنها لا تستطيع تلبية الطلب لأنه “يعزز الصور النمطية والتعميمات الضارة حول الأشخاص على أساس عرقهم”. المدير الأول لإدارة منتجات Gemini في Google، جاك كراوسيزك، أصدر بيانا قائلًا إن “إنشاء صور الذكاء الاصطناعي لـ Gemini يولد مجموعة واسعة من الأشخاص. وهذا أمر جيد بشكل عام لأن الناس حول العالم يستخدمونه. لكنها تفتقد العلامة هنا.” ومع ذلك، يبدو أن جوجل تقلل بشكل خطير من مدى الدور الذي يلعبه اليقظة والتقاطعية دورًا أيديولوجيًا في برمجة جيميني وخدمات جوجل على نطاق أوسع. على سبيل المثال، يؤدي البحث السريع على Google عن “العائلة البيضاء” إلى الحصول على أفضل النتائج المثيرة للاهتمام، ربما بسبب تصنيف الصور بشكل غير صحيح. ومع ذلك، فمن المؤكد أن لدى الناس سببًا للشك في أعقاب خطأ الذكاء الاصطناعي المشحون بالعنصرية. لدى Google أيضًا تاريخ التلاعب بنتائج البحث.
في أعقاب الفضيحة، بدأ الناس في البحث في تاريخ وسائل التواصل الاجتماعي لجاك كراوسيزك، رائد الجوزاء، ووجدوا بعض النتائج المتوقعة. لقطات الشاشة من العديد من التغريدات التي تدين الامتياز الأبيض، وتدين التحيزات البيضاء، وتدعي أن “العنصرية النظامية” كانت مشكلة كبيرة في أمريكا، والاعتقاد بأن “العنصرية هي القيمة رقم 1 التي يسعى شعبنا إلى التمسك بها قبل كل شيء” بدأ فيضان موقع X، المعروف سابقًا باسم تويتر، مشيرًا إلى من الأسس الأيديولوجية للأشخاص الذين يديرون هذه التكنولوجيا. بعد رد الفعل السلبي، قام Krawcyzk بحماية حسابه بحيث لا يتمكن أي شخص لا يتابعه بالفعل من البحث أو عرض تغريداته. وهذه ليست حادثة معزولة في القيادة أيضًا. جوجل مؤسس مسؤولية الذكاء الاصطناعي، جين جيناي، تتخذ مواقف تقدمية مماثلة ومناهضة للعنصرية، وذهبت إلى حد الاعتراف بأنها تعامل موظفي الأقليات بشكل مختلف عن الموظفين البيض وتناقش أهمية مناهضة العنصرية في عمل الذكاء الاصطناعي في Google.
كان مهندسو جيميني قلقين بشأن التمثيل، حيث أن التنوع المشفر يحث على LLM بشكل ثقيل جدًا، مما يؤدي إلى تحيز يفضل الهويات بشكل صريح (مثل جنس أو عرق معين) عندما لا تنطبق. الآن، لم تقم Google بإيقاف ميزة إنشاء الصور في Gemini مؤقتًا فحسب، بل قامت بذلك أيضًا إذا طلبت ذلك المطالبات “لم يكن بمقدورهم أبدًا إنشاء صور مباشرة” وربما يخلطون بينها وبين نموذج لغة مختلف أو أداة ذكاء اصطناعي. لا تكشف Google علنًا عن المعلمات التي تحكم توليد الذكاء الاصطناعي لـ Gemini، لذلك من غير الواضح بالضبط ما الذي يحدث على الواجهة الخلفية لإنتاج هذه التمثيلات غير التاريخية للشخصيات والأشخاص المطلوبين.
أندرو توبا، الرئيس التنفيذي لشركة Gab، الذي يتمتع بخبرة في إنشاء صور الذكاء الاصطناعي، انتقل إلى X to يشرح كيف ولماذا يعمل الذكاء الاصطناعي لإيقاظ الجوزاء بهذه الطريقة؟ وقال: “عندما ترسل مطالبة صورة إلى Gemini، تأخذ Google مطالبتك وتقوم بتشغيلها من خلال نموذج اللغة الخاص بها على الواجهة الخلفية قبل إرسالها إلى نموذج الصورة”. ويواصل قائلاً: “يحتوي نموذج اللغة على مجموعة من القواعد حيث يُطلب منه على وجه التحديد تعديل الموجه الذي تقدمه ليشمل التنوع والأشياء الأخرى المتنوعة التي تريد Google إدراجها في الموجه الخاص بك. يأخذ نموذج اللغة مطالبتك، ويقوم بتشغيلها من خلال مجموعة القواعد هذه، ثم يرسل مطالبة التنبيه التي تم إنشاؤها حديثًا (والتي لا يمكنك الوصول إليها أو رؤيتها) إلى منشئ الصور. يوضح توربا أنه بدون هذه العملية، سيولد Gemini النتائج المتوقعة للمطالبات، ولهذا السبب يتعين على Google “وضع الكلمات في فمك حرفيًا عن طريق تغيير مطالبتك سرًا قبل إرسالها إلى منشئ الصور”.
وهذا يجب أن يقلقنا. ولم تصدر جوجل إلا بيانًا اعتذرت فيه وأوضحت ما حدث، وأغلقت أداتها مؤقتًا بعد أن تفجرت فضيحة على وسائل التواصل الاجتماعي ولم تعد قادرة على تجاهلها. هل نصدق حقًا أنه لم يختبر أحد هذه الأداة قبل إطلاقها ولم يكونوا على علم بحدودها؟ وكان هذا عن قصد، وله آثار بعيدة المدى على تكنولوجيا الذكاء الاصطناعي الأكثر تقدما والتي يمكن أن تشكل تهديدا أكثر خطورة. هل سنرى اعتذارًا وإيقافًا مؤقتًا للتكنولوجيا لو تم تجاهل ذلك؟ وهناك تكنولوجيا أكثر تعقيداً تلوح في الأفق، ويجري بناؤها على يد منظرين إيديولوجيين لا يمكن تمييزهم عن أولئك الذين يعملون في شركة جوجل. هل تعتقد أنه إذا تمكنوا من الإفلات من العقاب، فسوف يطلقون أجراس الإنذار؟ لقد رأينا هذا يحدث بالفعل مع الجوزاء. المشكلة ليست فقط في المحو الأبيض، بل في الأكاذيب الصريحة. ليس هناك فقط افتقار إلى رؤية الأشخاص البيض، بل هناك إعادة كتابة للتاريخ. إن رؤية مثل هذه التكنولوجيا القوية تغير الحقائق الأساسية في الماضي والحاضر لها آثار أكثر خطورة. لا تقلقوا يا رؤوسكم الصغيرة الجميلة؛ لم نقم أبدًا بإنشاء صور الذكاء الاصطناعي، ولم يكن هناك باباوات بيض، وكنا دائمًا في حالة حرب مع أوراسيا.
إن أنظمة المعتقدات التقدمية اجتماعيًا التي توجه المهندسين في Gemini هي الفكر السائد وتشكل تهديدًا واضحًا لأي تقنية متقدمة أخرى نواصل بناءها. في العام الماضي، وجد الباحثون أن ChatGPT الخاص بشركة OpenAI كان لديه تحيز ليبرالي كبير. لم يعد الذكاء الاصطناعي أكثر تبسيطًا أو لا يحظى بشعبية من الآن فصاعدًا؛ فنحن نتسارع بمعدلات تنذر بالخطر، وفي مرحلة ما، قد لا نتمتع برفاهية “إنجاز الأمور بشكل صحيح في المرة الثانية”. مع استمرار سباق الذكاء الاصطناعي، أصبح الوقت أمرًا جوهريًا لهذه الشركات. لقد أصدرت OpenAI بالفعل أداة توليد الفيديو Sora للتنافس مع Gemini من Google. في محاولة يائسة للحصول على أحدث التطورات، قد نرى المزيد من التغاضي عن أخطاء البرمجة الإشكالية. ففي نهاية المطاف، نشأت هذه المشكلة نتيجة لمحاولة المبالغة في تصحيح مظالم الماضي التي ارتكبها ليس فقط البشر، بل أيضًا الذكاء الاصطناعي. إذا كنت تعرف أي شيء عن التعويض الزائد، فهذه وصفة لكارثة. إن المحاولات المضللة للتعويض المفرط عن مظالم الماضي ليست خاطئة فحسب، لأنها تعكس فقط الممارسات الإقصائية والتمييزية التي واجهتها مجموعات أخرى تاريخياً. وسوف يؤثر علينا بطرق أخرى أكثر خطورة ومثيرة للقلق حيث أصبحنا نعتمد بشكل متزايد على هذه التكنولوجيا. وكما حذر جورج أورويل، “من يسيطر على الماضي يسيطر على المستقبل. من يسيطر على الحاضر يسيطر على الماضي.” كيف يمكن استخدام هذه “الأخطاء” كسلاح لتحقيق الأهداف النهائية لبعض الأيديولوجيين؟
يتوخى مهندسو البرمجيات الذين يطورون الذكاء الاصطناعي الحذر المفرط لأنهم يشعرون بقلق بالغ بشأن اتهام الذكاء الاصطناعي الخاص بهم بإظهار مواقف متحيزة، وهو ما حدث في الماضي. ربما تكون هذه المشكلة قد أصابت شركة Google بشكل خاص، حيث يستخدم برنامج تحليل الصور الخاص بها لتصنيف الأشخاص والأماكن والأشياء داخل تطبيق الصور. صور تحمل علامات زائفة للأشخاص السود على أنها غوريلا – النتيجة التي أوضحها موظفان سابقان في Google ترجع إلى الفشل في وضع ما يكفي من الصور للأشخاص السود في مجموعة الصور المستخدمة لتدريب نظام الذكاء الاصطناعي الخاص بها. العديد من المشكلات الأخرى التي نشأت من خلال الذكاء الاصطناعي أدت إلى ادعاءات بالتحيز، لذا يمكنك فهم ما قادنا إلى هنا.
منشورات مثل الحافة، التي دفعت الدعاية نفسها التي أدت إلى هذه المشكلة، موجودة هنا لتذكيرنا بأن المشكلة الحقيقية ليست أن اليساريين قد استوعبوا مستوى عصبيًا من الوعي العرقي الذي أدى إلى مرض غير استبطاني من الذنب الأبيض. بالطبع لا. وبدلا من ذلك، تكمن المشكلة في أن هذا الفشل يتعرض لانتقادات شديدة من قبل منظري المؤامرة واليمينيين الذين يرون أن هذه لحظة مناسبة لاستهداف شركات مثل جوجل، التي يعتبرونها يسارية. وعلى الرغم من الاعتراف بالافتقار إلى الفروق الدقيقة في توليد صورة الجوزاء المشحونة بالعنصرية، فقد خلصوا إلى أن هذه مشكلة فقط لأنها “تنتهي بمحو تاريخ حقيقي من التمييز العرقي والجنسي”. إنه تذكير بأنه على الرغم من أن التكنولوجيا الأكثر تقدمًا لدينا يديرها متملقون يائسون لاسترضاء نوع الأشخاص الذين يكتبون للمنشورات ذات الميول اليسارية المتعجرفة، فإن هؤلاء الأشخاص سيفعلون ذلك. لا تمنحهم الفضل أبدًا لذلك على أي حال. هم أول من ألقوا بهم تحت الحافلة. نحن الآن ندخل منطقة مجهولة حيث يقود الأعمى الأعمى.