يقوم مساعد Copilot AI من Microsoft بتعريض محتويات أكثر من 20،000 مستودعات جيثب الخاصة من الشركات بما في ذلك Google و Intel و Huawei و PayPal و IBM و Tencent و Microsoft.
تم نشر هذه المستودعات ، التي تنتمي إلى أكثر من 16000 منظمة ، في الأصل إلى Github على أنها عامة ، ولكن تم تعيينها لاحقًا على القطاع الخاص ، وغالبًا بعد أن أدرك المطورون المسؤولون أنهم احتوا من بيانات اعتماد المصادقة التي تسمح بوصول غير مصرح بها أو أنواع أخرى من البيانات السرية. حتى بعد أشهر ، تظل الصفحات الخاصة متاحة بالكامل من خلال Copilot.
اكتشفت Lasso شركة أمن AI السلوك في النصف الثاني من عام 2024. بعد أن استفاد في يناير من أن CoPilot واصل تخزين المستودعات الخاصة وجعلها متاحة ، شرع Lasso في قياس حجم المشكلة حقًا.
مستودعات غيبوبة
“بعد إدراك أن أي بيانات عن github ، حتى لو كانت عامة للحظة واحدة ، يمكن فهرستها وربما تعرضها أدوات مثل Copilot ، فقد أدهشنا مدى سهولة الوصول إلى هذه المعلومات”.”https://www.lasso.security/blog/lasso-major-vulnerability-in-microsoft-copilot”> النشر يوم الخميس. “مصممًا على فهم المدى الكامل للمشكلة ، شرعنا في أتمتة عملية تحديد مستودعات الزومبي (المستودعات التي كانت ذات يوم علني وأصبحت الآن خاصة) والتحقق من صحة النتائج التي توصلنا إليها.”
بعد أن اكتشف اكتشاف Microsoft أحد المستودعات الخاصة في لاسو ، تتبع باحثو لاسو المشكلة إلى آلية ذاكرة التخزين المؤقت في Bing. قام محرك بحث Microsoft بفهرسة الصفحات عندما تم نشرها علنًا ، ولم يزعجك أبدًا إزالة الإدخالات بمجرد تغيير الصفحات إلى GitHub. نظرًا لأن Copilot استخدم Bing كمحرك بحث أساسي ، فإن البيانات الخاصة كانت متاحة من خلال روبوت دردشة الذكاء الاصطناعي أيضًا.
بعد أن أبلغ Lasso عن المشكلة في نوفمبر ، قدمت Microsoft تغييرات مصممة لإصلاحها. أكد لاسو أن البيانات الخاصة لم تعد متوفرة من خلال Bing Cache ، لكنها استمرت في تحقيق اكتشاف مثير للاهتمام – توفر في مستودع GitHub الذي تم جعله خاصًا بعد دعوى قضائية قدمتها Microsoft. زعمت الدعوى أن الأدوات المستضافة المستضافة مصممة خصيصًا لتجاوز الدرابزين السلامة والأمن المضمّنة في خدمات الذكاء الاصطناعي للشركة. تمت إزالة المستودع لاحقًا من Github ، ولكن كما اتضح ، واصل CoPilot إتاحة الأدوات على أي حال.