من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

توفر التقييمات حجة مضادة قوية للروايات المبالغ فيها التي تروج لها شركات الذكاء الاصطناعي، والتي يسعى العديد منها إلى جولات جديدة من تمويل المشاريع، والتي تقول إن البرمجيات الخبيثة التي ينشئها الذكاء الاصطناعي منتشرة على نطاق واسع وجزء من نموذج جديد يشكل تهديدًا حاليًا للدفاعات التقليدية.

والمثال النموذجي هو الأنثروبي، الذي”https://www.anthropic.com/news/detecting-countering-misuse-aug-2025″> تم الإبلاغ عنها مؤخرًا اكتشافها لممثل تهديد استخدم Claude LLM “لتطوير وتسويق وتوزيع العديد من أنواع برامج الفدية، كل منها يتمتع بقدرات تهرب متقدمة وتشفير وآليات لمكافحة الاسترداد”. ومضت الشركة لتقول: “بدون مساعدة كلود، لم يتمكنوا من تنفيذ أو استكشاف أخطاء مكونات البرامج الضارة الأساسية، مثل خوارزميات التشفير أو تقنيات مكافحة التحليل أو التلاعب الداخلي في Windows.”

بدء التشغيل ConnectWise”https://www.connectwise.com/blog/the-dark-side-how-threat-actors-are-using-ai”> قال مؤخرا أن الذكاء الاصطناعي التوليدي كان “يخفض حاجز الدخول أمام الجهات الفاعلة التي تشكل تهديدًا للدخول إلى اللعبة”. نقلت التدوينة أ”https://cdn.openai.com/threat-intelligence-reports/influence-and-cyber-operations-an-update_October-2024.pdf”> تقرير منفصل من OpenAI التي عثرت على 20 جهة تهديد منفصلة تستخدم محرك ChatGPT AI الخاص بها لتطوير برامج ضارة لمهام تشمل تحديد نقاط الضعف، وتطوير تعليمات برمجية للاستغلال، وتصحيح أخطاء تلك التعليمات البرمجية. في هذه الأثناء،”https://www.bugcrowd.com/resources/report/inside-the-mind-of-a-hacker/”> قال أنه في دراسة استقصائية لأفراد تم اختيارهم ذاتيًا، “وافق 74% من المتسللين على أن الذكاء الاصطناعي جعل القرصنة أكثر سهولة، مما فتح الباب أمام الوافدين الجدد للانضمام إلى المجموعة.”

وفي بعض الحالات، يلاحظ مؤلفو هذه التقارير نفس القيود المذكورة في هذه المقالة. يقول تقرير الأربعاء الصادر عن جوجل إنه في تحليلها لأدوات الذكاء الاصطناعي المستخدمة لتطوير التعليمات البرمجية لإدارة قنوات القيادة والسيطرة والتعتيم على عملياتها “لم نر دليلاً على نجاح الأتمتة أو أي قدرات خارقة”. قال OpenAI نفس الشيء تقريبًا. ومع ذلك، نادرًا ما يتم تقديم إخلاءات المسؤولية هذه بشكل بارز، وغالبًا ما يتم التقليل من أهميتها في ظل الهوس الناتج عن تصوير البرامج الضارة المدعومة بالذكاء الاصطناعي على أنها تشكل تهديدًا على المدى القريب.

ويقدم تقرير جوجل نتيجة مفيدة أخرى على الأقل. تمكن أحد عناصر التهديد الذي استغل نموذج Gemini AI الخاص بالشركة من تجاوز حواجز الحماية الخاصة به من خلال التظاهر بأنه قراصنة ذوي قبعة بيضاء يقومون بإجراء بحث للمشاركة في لعبة التقاط العلم. تم تصميم هذه التدريبات التنافسية لتعليم وإظهار استراتيجيات الهجوم السيبراني الفعالة لكل من المشاركين والمتفرجين.

تم دمج حواجز الحماية هذه في جميع برامج LLM السائدة لمنع استخدامها بشكل ضار، كما هو الحال في الهجمات الإلكترونية وإيذاء النفس. وقالت جوجل إنها قامت منذ ذلك الحين بضبط الإجراءات المضادة بشكل أفضل لمقاومة مثل هذه الحيل.

في نهاية المطاف، تشير البرامج الضارة التي أنشأها الذكاء الاصطناعي والتي ظهرت حتى الآن إلى أنها تجريبية في الغالب، وأن النتائج ليست مثيرة للإعجاب. تستحق الأحداث مراقبة التطورات التي تظهر أن أدوات الذكاء الاصطناعي تنتج قدرات جديدة لم تكن معروفة من قبل. ومع ذلك، في الوقت الحالي، لا تزال أكبر التهديدات تعتمد في الغالب على التكتيكات القديمة.

اقرأ المزيد

يتوفر Google Pixel 10 Pro XL بأقل سعر على الإطلاق الآن
تقوم AWS ببناء كابل إنترنت جديد عالي السرعة تحت سطح البحر لربط الولايات المتحدة وأيرلندا

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل