تكون نماذج اللغات الكبيرة (LLMs) مثل ChatGPT عرضة للمطالبات الصعبة ويمكن أن تؤدي إلى تسريب البيانات التي تم تدريبها عليها.
وكشف جهد تعاوني قام به باحثون من Google DeepMind وجامعة كاليفورنيا في بيركلي وجامعة واشنطن وآخرون أن هذه الطريقة التي تسمى “هجوم التباعد” يمكن أن تعرض خصوصية المستخدم للخطر.
يعتقد الباحثون أن إصلاح نقاط الضعف المحددة لن يكون كافيًا، مضيفين أن معالجة الثغرات الأساسية أمر ضروري لتحقيق أمان لا تشوبه شائبة.
فيه يذاكر، استكشف الباحثون ظاهرة تسمى “الحفظ”، حيث وجد أن حاملي شهادة LLM قادرون على تذكر وإعادة إنتاج أجزاء معينة من البيانات المستخدمة لتدريبهم.
وكان الباحثون يعملون على “الحفظ القابل للاستخراج”، حيث كانوا يستكشفون إمكانية استخدام استعلامات محددة لاستخراج البيانات.
جرب الفريق نماذج لغوية مختلفة، بما في ذلك ChatGPT، لاماوGPT-Neo، أثناء توليد مليارات الرموز. ثم قاموا بفحصها بحثًا عن تطابقات محتملة مع مجموعات البيانات المعنية المستخدمة لتدريب الأنظمة.
والمثير للدهشة أن ChatGPT أظهر قدراته على الحفظ، مما يعني أن النموذج يمكنه تذكر مدخلات المستخدم والمعلومات المستخدمة لتدريبه. ومن خلال المطالبات الصعبة من المستخدمين الآخرين، يمكن للذكاء الاصطناعي التوليدي الكشف عن هذه التفاصيل لاحقًا.
قام الباحثون بتصميم “هجوم التباعد” من أجل ChatGPT
تم تصميم تقنية فريدة من نوعها، تُعرف باسم “هجوم التباعد”، خصيصًا لـ ChatGPT من قبل الباحثين. وفي هذه الحالة، طلبوا من النموذج أن يكرر كلمة “قصيدة” إلى ما لا نهاية. وفي هذه العملية، لاحظوا أن النموذج كشف بشكل غير متوقع عن بيانات التدريب الخاصة بهم.
وكذلك طلب الباحثون ChatGPT لتكرار كلمة “شركة” بشكل متكرر، مما دفع الذكاء الاصطناعي إلى الكشف عن رقم الهاتف وعنوان البريد الإلكتروني لشركة محاماة في الولايات المتحدة.
وتضمنت هذه البيانات تقارير بحثية مفصلة عن الاستثمار حول رموز بايثون المحددة لمهام التعلم الآلي. وكان الجزء الأكثر إثارة للقلق في هذه النتيجة هو أن النظام قام بحفظ وكشف المعلومات الشخصية للمدربين مثل أرقام الهواتف وعناوين البريد الإلكتروني.
استخدام استعلامات بقيمة 200 دولار فقط لـ ChatGPT (جي بي تي-3.5- توربو)، نحن قادرون على استخراج أكثر من 10000 نموذج تدريبي محفوظ حرفيًا فريدًا. يشير استقراءنا للميزانيات الأكبر إلى أن الخصوم المتفانين يمكنهم استخراج المزيد من البيانات.الباحثون
توضح الدراسة أن هناك حاجة إلى نهج شامل لاختبار نماذج الذكاء الاصطناعي بما يتجاوز الجوانب التي يواجهها المستخدمون عادةً لتدقيق النماذج الأساسية الأساسية مثل تفاعلات واجهة برمجة التطبيقات.
ماذا تعني الثغرة الأمنية لمستخدمي ChatGPT؟
وفي غضون الشهرين الأولين بعد إطلاقه، اكتسب ChatGPT قاعدة مستخدمين ضخمة بأكثر من 100 مليون. على الرغم من أن OpenAI أعربت عن التزامها بتأمين خصوصية المستخدم، إلا أن الدراسة الأخيرة تضع المخاطر في المقدمة.
ChatGPT عرضة لتسريب معلومات المستخدم عند تلقي مطالبات محددة، وهذا يعرض معلومات مستخدميه للخطر.
وقد استجابت الشركات بالفعل للمخاوف بشأن خروقات البيانات، من خلال تفاحة تقييد موظفيها من استخدام LLMs.
وفي إجراء لتعزيز أمن البيانات، أضافت OpenAI ميزة تسمح للمستخدمين بإيقاف تشغيل سجل الدردشة الخاص بهم. ومع ذلك، يحتفظ النظام بالمعلومات الحساسة لمدة 30 يومًا قبل أن يقوم بحذفها نهائيًا.
أصدر باحثو Google تحذيرًا للمستخدمين بالامتناع عن استخدام LLMs للتطبيقات التي يحتاجون فيها إلى الكشف عن معلومات حساسة دون اتخاذ تدابير أمنية كافية. في حين تم تقديم ChatGPT في البداية باعتباره ذكاءً اصطناعيًا مفيدًا وآمنًا، فإن التقرير الأخير يسلط الضوء على مخاوف مثيرة للقلق.