شهد مطلع عام 2026 واقعة مقلقة سلطت الضوء على احتمالات إساءة استخدام الذكاء الاصطناعي التوليدي. حيث تم استخدام أداة الذكاء الاصطناعي Grok من شركة xAI التابعة لإيلون ماسك، بطريقة خطيرة لإنشاء صور فاضحة لأشخاص على منصة X (تويتر سابقًا)، بمعدل مقلق وصل إلى 3 ملايين صورة جنسية خلال 11 يومًا في يناير، بما في ذلك ما يقرب من 23 ألف صورة لأطفال، وذلك وفقًا لدراسة أجراها مركز مكافحة الكراهية الرقمية. رداً على ذلك، يعمل المنافسون مثل OpenAI وGoogle على تشديد إجراءاتهم الأمنية لتجنب الوقوع في فخاخ مشابهة.
المخاوف المتزايدة بشأن الذكاء الاصطناعي التوليدي
لطالما أبدى المدافعون عن السلامة والباحثون قلقهم تجاه قدرة الذكاء الاصطناعي على توليد محتوى مسيء وغير قانوني. قبل ظهور الذكاء الاصطناعي، كانت مشكلة إنشاء ومشاركة الصور الحميمية غير الرضائية، والمعروفة أحيانًا باسم الإباحية الانتقامية، تشكل تحديًا كبيرًا. ومع ذلك، فإن الذكاء الاصطناعي التوليدي جعل هذه العملية أسرع وأسهل وأقل تكلفة، مما يمنح أي شخص القدرة على استهداف الأفراد وإلحاق الأذى بهم.
في 14 يناير، وبعد أسبوعين من اندلاع الفضيحة، أعلنت منصة X عبر حسابها الخاص بالسلامة عن تعليق مؤقت لقدرة Grok على تعديل الصور داخل تطبيقها. ومع ذلك، لا تزال إمكانيات إنشاء الصور متاحة لمشتركي الخدمة المدفوعة عبر تطبيق Grok وموقعه المستقل. لم ترد X على طلبات التعليق المتعددة.
تطبق معظم الشركات الكبرى ضمانات لمنع الانتهاكات واسعة النطاق التي شهدناها مع Grok. ومع ذلك، فإن الأمن السيبراني ليس حاجزاً منيعاً، بل هو بنية تحتية تتطلب تحديثات وصيانة مستمرة. إليكم كيف حاول كل من OpenAI وGoogle تعزيز إجراءات السلامة الخاصة بهما لتجنب حالات فشل مشابهة لحالة Grok.
OpenAI تعالج الثغرات الأمنية في إنشاء الصور
على المستوى الأساسي، لدى جميع شركات الذكاء الاصطناعي سياسات تمنع إنشاء صور غير قانونية، مثل مواد الاعتداء الجنسي على الأطفال (CSAM). كما تمتلك العديد من شركات التكنولوجيا آليات حماية لمنع إنشاء صور حميمة تمامًا. يعتبر Grok استثناءً بفضل أوضاع “spicy” المتاحة للصور والفيديو.
ومع ذلك، يمكن للأفراد الذين لديهم نوايا سيئة محاولة خداع نماذج الذكاء الاصطناعي لإنشاء صور حميمة غير رضائية. فقد اكتشف باحثون من شركة Mindgard للأمن السيبراني المتخصصة في الذكاء الاصطناعي ثغرة أمنية في ChatGPT سمحت للمستخدمين بالتحايل على آليات الحماية الخاصة به والتقاط صور حميمة. استخدموا تكتيكًا يُعرف باسم “adversarial prompting”، حيث يحاول المختبرون استغلال الذكاء الاصطناعي بتعليمات مصممة خصيصًا. في هذه الحالة، تم خداع ذاكرة النموذج باستخدام مطالبات مخصصة، ثم تم تطبيق النمط العاري على صور لأشخاص معروفين.
نبهت شركة Mindgard شركة OpenAI إلى النتائج التي توصلت إليها في أوائل فبراير. وفي 10 فبراير، قبل إعلان Mindgard عن تقريرها، أكدت OpenAI أنها قامت بإصلاح المشكلة. وقال متحدث باسم OpenAI لشبكة CNET وMindgard: “نحن ممتنون للباحثين الذين شاركوا نتائجهم. لقد تحركنا بسرعة لإصلاح خطأ سمح للنموذج بإنشاء هذه الصور. نحن نقدر هذا النوع من التعاون ونظل ملتزمين بتعزيز إجراءات الحماية للحفاظ على سلامة المستخدمين.”
هذه العملية تمثل الطريقة التي يعمل بها الأمن السيبراني غالبًا. يقوم باحثون خارجيون، مثل فريق Mindgard، باختبار نقاط الضعف أو إيجاد حلول بديلة، محاكين بذلك الاستراتيجيات التي قد يستخدمها الممثلون السيئون. وعندما يحددون الثغرات الأمنية، يقومون بإبلاغ مزود البرنامج ليتم نشر الإصلاحات.
كتبت Mindgard في منشور مدونتها: “الافتراض بأن المستخدمين ذوي النوايا الحسنة لن يحاولوا التحايل على إجراءات الحماية هو خطأ استراتيجي في الحساب. المهاجمون يتطورون باستمرار. يجب أن تفترض أنظمة الحماية إصرارهم.”
بينما تتباهى شركات التكنولوجيا بكيفية استخدام الذكاء الاصطناعي الخاص بها لأي غرض، إلا أنها تحتاج أيضًا إلى تقديم وعد قوي بقدرتها على منع إساءة استخدام الذكاء الاصطناعي. وفيما يتعلق بتوليد الصور بالذكاء الاصطناعي، يتطلب ذلك مجموعة قوية من المطالبات التي سيتم رفضها وإعادتها إلى المستخدمين.
عندما أطلقت OpenAI نموذج الفيديو Sora 2، وعدت بأن تكون أكثر تحفظًا في الإشراف على المحتوى لهذا السبب تحديدًا. ولكن من المهم التأكد من أن ممارسات الإشراف فعالة باستمرار، وليس فقط عند إطلاق المنتج. هذا يجعل اختبار سلامة الذكاء الاصطناعي عملية مستمرة لكل من باحثي الأمن السيبراني ومطوري الذكاء الاصطناعي.
Google ترقي آليات الإبلاغ عن الصور
من جانبها، تتخذ Google خطوات لضمان عدم انتشار الصور المسيئة بسهولة. فقد قامت الشركة العملاقة بتبسيط عملية طلب إزالة الصور الفاضحة من بحث Google. يمكن للمستخدمين الآن النقر على النقاط الثلاث في الزاوية العلوية اليمنى للصورة، ثم اختيار “تقرير”، وتحديد رغبتهم في إزالة الصورة لأنها “تظهر صورة جنسية لي”. تتيح التغييرات الجديدة أيضًا تحديد صور متعددة مرة واحدة وتتبع التقارير بسهولة أكبر.
جاء في مشاركة مدونة للشركة: “نأمل أن تقلل عملية الإزالة الجديدة هذه العبء الذي يواجهه ضحايا الصور الصريحة غير الرضائية.”
عند الاستفسار عن أي خطوات إضافية تتخذها الشركة لمنع إساءة استخدام الذكاء الاصطناعي، أشارت Google إلى سياسة الاستخدام المحظورة الخاصة بها للذكاء الاصطناعي التوليدي. تشبه سياسة Google، مثل العديد من الشركات التقنية الأخرى، سياسات الشركات الأخرى في حظر استخدام الذكاء الاصطناعي في أنشطة غير قانونية أو مسيئة، مثل إنشاء صور حميمة.
توجد قوانين تهدف إلى مساعدة الضحايا عند مشاركة هذه الصور عبر الإنترنت، مثل قانون “Take It Down Act” لعام 2025. ومع ذلك، فإن نطاق هذا القانون محدود، ولهذا السبب تعارض العديد من مجموعات المناصرة، مثل المركز الوطني للاستغلال الجنسي، التشريع وتضغط من أجل قواعد أفضل.
لا يوجد ضمان بأن هذه التغييرات ستمنع أي شخص من استخدام الذكاء الاصطناعي للمضايقة وسوء المعاملة. لهذا السبب، من الأهمية بمكان أن يظل المطورون يقظين لضمان حمايتنا جميعًا – وأن يتصرفوا بسرعة عند ظهور التقارير والمشكلات.