من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

إن أحد المخاوف الكبرى في العصر الحديث هو أن أنظمة الذكاء الاصطناعي التوليدية تمنح الجهات الخبيثة قوة غير مسبوقة للكذب والتلاعب والسرقة على نطاق لم يكن من الممكن تصوره من قبل وأن هذا من شأنه أن يقوض أنظمة الثقة والديمقراطية والمجتمع لدينا.

وتتعدد الأمثلة على ذلك، بدءاً من التدخل في الانتخابات إلى الإنتاج الضخم للمراجعات المزيفة. والواقع أنه من السهل أن نتصور أن هذه ليست سوى جزء صغير من المساعي الخبيثة التي تعمل حالياً على تقويض أسلوب حياتنا.

الحقيقة أن الأمر أكثر تعقيدًا بطبيعة الحال، ولكنها تثير سؤالًا أوسع حول كيفية فهم تقنيات الذكاء الاصطناعي الخبيثة بشكل أفضل، وأين يتم تطبيقها، ومن قبل من، وعلى أي نطاق، ولأي غرض.

والآن، نستطيع أن نتوصل إلى إجابة من نوع ما بفضل عمل ناهيما مارشال في شركة جوجل ديب مايند وراشيل شو في شركة جوجل جيغسو وزملائهما، الذين درسوا إساءة استخدام الذكاء الاصطناعي التوليدي والطريقة التي تطور بها في العامين الماضيين. وقد كشف نهجهم عن مجموعة واسعة من الأنشطة الخبيثة التي قاموا بتصنيفها. ويقولون: “نسلط الضوء على الأنماط الرئيسية والجديدة في إساءة الاستخدام خلال هذه الفترة الزمنية، بما في ذلك الدوافع المحتملة والاستراتيجيات وكيف يستغل المهاجمون قدرات النظام ويستغلونها”.

الاتصالات الطارئة

وفي هذه العملية، اكتشف الباحثون أيضًا أنواعًا معينة من الأنشطة التي تقع على الحدود بين الاستخدام المقبول وغير المقبول للذكاء الاصطناعي. ويقول الفريق: “تتضمن هذه الأنشطة ظهور أشكال جديدة من الاتصالات للتواصل السياسي والترويج الذاتي والدعوة التي تطمس الخطوط الفاصلة بين الأصالة والخداع”.

إن نهجهم واضح بشكل مدهش. فقد قام مارشال وشو وشركاؤهما بتحليل أكثر من 200 تقرير إعلامي عن إساءة استخدام أنظمة الذكاء الاصطناعي أو استخدامها بشكل غير صحيح، والتي نُشرت بين يناير/كانون الثاني 2023 ومارس/آذار 2024. ثم قاموا بتصنيف أنواع وأنماط الإساءة المبلغ عنها لإنشاء تصنيف للتكتيكات التي يستخدمها الجهات الخبيثة في عملهم.

وتنقسم أنواع الانتهاكات إلى فئتين عريضتين – أولئك الذين يستغلون أنظمة الذكاء الاصطناعي التوليدي وأولئك الذين يحاولون اختراق نفس الأنظمة للكشف عن معلومات محمية أو لأداء مهام محظورة بخلاف ذلك، كما يقول الباحثون.

ثم يقومون بتقسيم هذه الفئات إلى فئات فرعية أخرى. الفئة الأولى والأكثر شيوعًا والتي تستغل الذكاء الاصطناعي التوليدي تتضمن تصويرًا واقعيًا للتشابهات البشرية لمهام مثل انتحال الشخصية، وإنشاء شخصيات مصطنعة وإنتاج صور جنسية غير موافقة. يقول مارشال وشو وشركاؤهما: “تتضمن المجموعة الأكثر انتشارًا من التكتيكات التلاعب بالتشابه البشري، وخاصة انتحال الشخصية”.

ومن الأمثلة على ذلك قصة تم بثها على قناة PBS News حول مكالمات روبوتية بالذكاء الاصطناعي تحاول قمع التصويت في نيو هامبشاير من خلال انتحال شخصية الرئيس بايدن.

الفئة الثانية تتضمن التصوير الواقعي للأشياء غير البشرية وتشمل تزوير الوثائق مثل أوراق الهوية وكذلك إنشاء نسخ مزيفة مصممة لتبدو وكأنها الشيء الحقيقي.

ويقولون إن الفئة الأخيرة تركز على آليات إنتاج المحتوى. ويشمل ذلك أتمتة سير العمل والإنتاج على نطاق واسع وبطرق يمكن أن تستهدف أفرادًا محددين. وفي أحد الأمثلة استخدم الباحثون برنامج ChatGPT لإرسال رسائل بريد إلكتروني جماعية إلى المشرعين لزيادة الوعي بشأن رسائل البريد الإلكتروني التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.

وعلى الرغم من التنوع الواسع في التطبيقات المسيئة، خلص مارشال وشو وزملاؤهم إلى أن معظمها يستخدم قدرات الذكاء الاصطناعي التوليدية التي يمكن الوصول إليها بسهولة بدلاً من القدرات المتطورة تكنولوجيًا.

ولعل الأمر الأكثر إثارة للاهتمام هو ظهور أشكال جديدة من الاتصال تطمس الحدود بين ما هو مقبول وما هو غير مقبول من استخدام الذكاء الاصطناعي التوليدي. على سبيل المثال، أثناء الانتخابات الأخيرة في الهند عندما ظهرت شخصيات سياسية تخاطب الناخبين الأفراد بأسمائهم باستخدام أي لغة يتحدثون بها وقد استخدم العديد من السياسيين صورًا مزيفة لأنفسهم لنشر رسالتهم على نطاق أوسع، ولكن أيضًا لتصوير أنفسهم في ضوء أكثر إيجابية.

ولم يعترف سوى عدد قليل من هذه الأمثلة بوضوح بالطريقة التي استُخدم بها الذكاء الاصطناعي التوليدي في هذه الحملات. ويقول الباحثون: “إن تنمية الصورة السياسية والترويج لها باستخدام الذكاء الاصطناعي التوليدي دون الكشف المناسب يقوض الثقة العامة من خلال جعل التمييز بين الصور الحقيقية والمصطنعة أمرًا صعبًا. لقد شهدنا بالفعل حالات من ربح الكذب، حيث يتمكن الأفراد البارزون من تفسير الأدلة غير المواتية باعتبارها أدلة تم إنشاؤها بواسطة الذكاء الاصطناعي“.”

تعزيز الربح

وبعيداً عن محاولات انتحال هوية البشر وممارسة النفوذ غير اللائق، فإن الهدف الأكثر شيوعاً للمستخدمين الخبيثين للذكاء الاصطناعي هو تحقيق الربح من المنتجات. ومن الأمثلة على ذلك إنشاء أعداد كبيرة من المقالات والكتب والإعلانات ذات الجودة المنخفضة لجذب الانتباه وتوليد عائدات الإعلانات.

يعد إنتاج الصور الجنسية غير التوافقية أيضًا مجالًا نشطًا للنشاط التجاري، على سبيل المثال، “تعرية” المرأة كخدمة مدفوعة الأجر.

بطبيعة الحال، هناك بعض القيود التي يحرص الباحثون على تسليط الضوء عليها. على سبيل المثال، يعتمد البحث بالكامل على تقارير إعلامية عن أنشطة ضارة عبر الإنترنت، وهو النهج الذي قد يؤدي إلى التحيز. على سبيل المثال، تميل وسائل الإعلام إلى التركيز على الأمثلة الأكثر فظاعة، والتي قد تبالغ في تقدير بعض أنواع النشاط المثير للحساسية بينما تقلل من تقدير أنشطة أخرى أقل جذبًا للعناوين الرئيسية ولكنها بنفس القدر من المكر.

ولكن مارشال وشو وزملاءهما بدأوا بداية مهمة في دراسة النظام البيئي للاستخدامات الخبيثة للذكاء الاصطناعي التوليدي. ويثير عملهم أسئلة مهمة حول العواقب البعيدة المدى لهذا النشاط وكيف يغير طبيعة الاتصال والمجتمع نفسه.

لا يحاول الفريق تحديد معدل التغير، ولكن ليس من الصعب أن نتخيل كيف يمكن أن ينمو تأثير هذه الأنشطة بشكل كبير. والواقع أن البشر ليسوا بارعين في تصور عواقب التغير الكبير، وهو ما يجعل هذه القضية أكثر أهمية وإثارة للقلق العام.

ويخلص مارشال وشو وشركاؤهما إلى أن “هذه النتائج تؤكد على الحاجة إلى نهج متعدد الأوجه للتخفيف من سوء استخدام الذكاء الاصطناعي، بما في ذلك التعاون بين صناع السياسات والباحثين وقادة الصناعة والمجتمع المدني”. وكلما كان ذلك أسرع كان ذلك أفضل.


المرجع: إساءة استخدام الذكاء الاصطناعي التوليدي: تصنيف التكتيكات والرؤى من البيانات الواقعية: arxiv.org/abs/2406.13843

اقرأ أكثر

ما وراء الضجة حول الذكاء الاصطناعي: Google Cloud تشارك الدروس المستفادة الرئيسية
العثور على المشتبه به في جرائم القتل بالقوس والنشاب بعد الاعتداء على زوجة صحفي بي بي سي وبناته

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل