من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.
“2128279”>

يتم إيقاف دمج إجراءات Copilot في Windows بشكل افتراضي، ولكن إلى متى؟

الائتمان: المصور: تشونا كاسينجر / بلومبرج عبر Getty Images

إن تحذير مايكروسوفت يوم الثلاثاء من أن وكيل الذكاء الاصطناعي التجريبي المدمج في نظام التشغيل Windows يمكن أن يصيب الأجهزة ويسرق بيانات المستخدم الحساسة قد أثار استجابة مألوفة من النقاد المهتمين بالأمن: لماذا عازمة شركات التكنولوجيا الكبرى على دفع ميزات جديدة قبل أن يتم فهم سلوكياتها الخطيرة بشكل كامل واحتوائها؟

مثل”https://arstechnica.com/gadgets/2025/11/new-windows-11-ai-agents-can-work-in-the-background-but-create-new-security-risks/”> ذكرت الثلاثاءقدمت مايكروسوفت إجراءات Copilot، وهي مجموعة جديدة من “ميزات الوكيل التجريبية” التي، عند تمكينها، تؤدي “المهام اليومية مثل تنظيم الملفات، أو جدولة الاجتماعات، أو إرسال رسائل البريد الإلكتروني”، وتوفر “متعاونًا رقميًا نشطًا يمكنه تنفيذ مهام معقدة لك لتعزيز الكفاءة والإنتاجية”.

تنطبق الهلوسة والحقن السريعة

ومع ذلك، جاءت الضجة مع أ”https://support.microsoft.com/en-us/windows/experimental-agentic-features-a25ede8a-e4c2-4841-85a8-44839191dfb3″> تحذير مهم. أوصت Microsoft المستخدمين بتمكين إجراءات Copilot فقط “إذا كنت تفهم الآثار الأمنية الموضحة”.

ويستند التحذير إلى العيوب المعروفة المتأصلة في معظم نماذج اللغات الكبيرة، بما في ذلك مساعد الطيار، مثل”https://arstechnica.com/security/2024/03/hackers-can-read-private-ai-assistant-chats-even-though-theyre-encrypted/”> الباحثين لديك مرارا وتكرارا أظهر.

أحد العيوب الشائعة في LLM يجعلها تقدم إجابات خاطئة وغير منطقية، وأحيانًا حتى على الأسئلة الأساسية. هذا الميل إلى الهلوسة، كما أصبح يُطلق على السلوك، يعني أن المستخدمين لا يمكنهم الوثوق بمخرجات Copilot أو Gemini أو Claude أو أي مساعد آخر يعمل بالذكاء الاصطناعي، ويجب عليهم بدلاً من ذلك تأكيدها بشكل مستقل.

لغم أرضي شائع آخر من LLM هو”https://arstechnica.com/security/2025/05/ai-agents-that-autonomously-trade-cryptocurrency-arent-ready-for-prime-time/”> الحقن الفوري، وهي فئة من الأخطاء تسمح للمتسللين بزرع تعليمات ضارة في مواقع الويب والسير الذاتية ورسائل البريد الإلكتروني. تتم برمجة LLMs لاتباع التوجيهات بفارغ الصبر لدرجة أنهم غير قادرين على تمييز تلك الموجودة في مطالبات المستخدم الصالحة من تلك الموجودة في محتوى طرف ثالث غير موثوق به تم إنشاؤه بواسطة المهاجمين. ونتيجة لذلك، تمنح شهادات LLM المهاجمين نفس الاحترام الذي يتمتع به المستخدمون.

ويمكن استغلال كلا العيبين في هجمات تقوم بتصفية البيانات الحساسة، وتشغيل تعليمات برمجية ضارة، وسرقة العملات المشفرة. حتى الآن، ثبت أنه من المستحيل على المطورين منع هذه الثغرات الأمنية، وفي كثير من الحالات، لا يمكن إصلاحها إلا باستخدام حلول بديلة خاصة بالأخطاء تم تطويرها بمجرد اكتشاف الثغرة الأمنية.

وهذا بدوره أدى إلى هذا الكشف الهائل في منشور Microsoft اعتبارًا من يوم الثلاثاء:

وقالت مايكروسوفت: “مع تقديم هذه القدرات، لا تزال نماذج الذكاء الاصطناعي تواجه قيودًا وظيفية من حيث كيفية تصرفها، وأحيانًا قد تهلوس وتنتج مخرجات غير متوقعة”. “بالإضافة إلى ذلك، تقدم تطبيقات الذكاء الاصطناعي الوكيل مخاطر أمنية جديدة، مثل الحقن الفوري (XPIA)، حيث يمكن للمحتوى الضار المضمن في عناصر واجهة المستخدم أو المستندات تجاوز تعليمات الوكيل، مما يؤدي إلى إجراءات غير مقصودة مثل استخراج البيانات أو تثبيت البرامج الضارة.”

أشارت Microsoft إلى أنه يجب على المستخدمين ذوي الخبرة فقط تمكين Copilot Actions، والذي يتوفر حاليًا فقط في الإصدارات التجريبية من Windows. ومع ذلك، لم تصف الشركة نوع التدريب أو الخبرة التي يجب أن يتمتع بها هؤلاء المستخدمون أو الإجراءات التي يجب عليهم اتخاذها لمنع تعرض أجهزتهم للخطر. لقد طلبت من Microsoft تقديم هذه التفاصيل، ورفضت الشركة.

مثل “وحدات الماكرو في برنامج Marvel خارقة الكراك”

وشكك بعض خبراء الأمن في قيمة التحذيرات الواردة في منشور الثلاثاء، ومقارنتها بالتحذيرات التي قدمتها مايكروسوفت لعقود من الزمن حول خطر استخدام وحدات الماكرو في تطبيقات Office. على الرغم من النصائح طويلة الأمد، ظلت وحدات الماكرو من بين”https://arstechnica.com/information-technology/2023/03/security-researchers-are-again-in-the-crosshairs-of-north-korean-hackers/”> أدنى معلقة الفاكهة للمتسللين لتثبيت البرامج الضارة خلسة على أجهزة Windows. أحد أسباب ذلك هو أن Microsoft جعلت وحدات الماكرو أساسية جدًا للإنتاجية بحيث لا يستطيع العديد من المستخدمين الاستغناء عنها.

وقال الباحث المستقل كيفن بومونت: “إن قول مايكروسوفت: لا تقم بتفعيل وحدات الماكرو، فهي خطيرة… لم ينجح أبداً بشكل جيد”. “هذه هي وحدات الماكرو في Marvel Heroes Crack.”

كما تساءل بومونت، الذي يتم تعيينه بانتظام للرد على التنازلات الرئيسية لشبكة Windows داخل المؤسسات، عما إذا كانت Microsoft ستوفر وسيلة للمسؤولين لتقييد إجراءات Copilot بشكل مناسب على أجهزة المستخدم النهائي أو لتحديد الأجهزة في الشبكة التي تم تشغيل الميزة عليها.

قال متحدث باسم Microsoft إن مسؤولي تكنولوجيا المعلومات سيكونون قادرين على تمكين أو تعطيل مساحة عمل الوكيل على مستوى الحساب والجهاز، باستخدام”https://www.microsoft.com/en-us/security/business/microsoft-intune”> يتناغم أو تطبيقات MDM (إدارة الأجهزة المحمولة) الأخرى.

أعرب النقاد عن مخاوف أخرى، بما في ذلك الصعوبة التي يواجهها حتى المستخدمين ذوي الخبرة في اكتشاف هجمات الاستغلال التي تستهدف عملاء الذكاء الاصطناعي الذين يستخدمونهم.

“لا أرى كيف سيمنع المستخدمون أي شيء من النوع الذي يشيرون إليه، بخلاف عدم تصفح الويب على ما أعتقد،” الباحث غيوم روسوليني”https://infosec.exchange/@GuillaumeRossolini/115572355182920728″> قال.

أكدت Microsoft على أن Copilot Actions هي ميزة تجريبية يتم إيقاف تشغيلها افتراضيًا. ومن المحتمل أن يكون قد تم اختيار هذا التصميم للحد من وصوله إلى المستخدمين ذوي الخبرة المطلوبة لفهم مخاطره. ومع ذلك، لاحظ النقاد أن الميزات التجريبية السابقة -مساعد الطيار، على سبيل المثال- أصبحت بانتظام قدرات افتراضية لجميع المستخدمين مع مرور الوقت. بمجرد الانتهاء من ذلك، غالبًا ما يُطلب من المستخدمين الذين لا يثقون في هذه الميزة استثمار الوقت في تطوير طرق غير مدعومة للقيام بذلك”https://arstechnica.com/gadgets/2025/11/what-i-do-to-clean-up-a-clean-install-of-windows-11-23h2-and-edge/”> إزالة الميزات.

أهداف سليمة ولكن سامية

ركزت معظم منشورات يوم الثلاثاء على إستراتيجية Microsoft الشاملة لتأمين ميزات الوكيل في Windows. تشمل أهداف هذه الميزات ما يلي:

  • عدم الإنكار، أي أن جميع الإجراءات والسلوكيات يجب أن تكون “قابلة للملاحظة والتمييز عن تلك التي يتخذها المستخدم”
  • يجب على الوكلاء الحفاظ على السرية عندما يقومون بجمع بيانات المستخدم أو تجميعها أو استخدامها بطريقة أخرى
  • يجب أن يحصل الوكلاء على موافقة المستخدم عند الوصول إلى بيانات المستخدم أو اتخاذ الإجراءات

الأهداف سليمة، لكنها تعتمد في النهاية على قراءة المستخدمين لنوافذ الحوار التي تحذر من المخاطر وتتطلب موافقة دقيقة قبل المتابعة. وهذا بدوره يقلل من قيمة الحماية للعديد من المستخدمين.

“ينطبق التحذير المعتاد على مثل هذه الآليات التي تعتمد على قيام المستخدمين بالنقر فوق مطالبة الإذن” ، قال إيرلينس فرنانديز ، أستاذ جامعة كاليفورنيا في سان دييغو المتخصص في أمن الذكاء الاصطناعي ، لآرس. “في بعض الأحيان، لا يفهم هؤلاء المستخدمون تمامًا ما يجري، أو قد يعتادون على ذلك وينقرون على “نعم” طوال الوقت. وعند هذه النقطة، لا تكون الحدود الأمنية حدودًا حقًا.”

كما تبين”https://arstechnica.com/security/2025/11/clickfix-may-be-the-biggest-security-threat-your-family-has-never-heard-of/”> سلسلة من هجمات “ClickFix”.يمكن خداع العديد من المستخدمين لاتباع تعليمات خطيرة للغاية. في حين أن المستخدمين الأكثر خبرة (بما في ذلك عدد لا بأس به من المعلقين على Ars) يلومون الضحايا الذين يقعون في مثل هذه عمليات الاحتيال، فإن هذه الحوادث لا مفر منها لمجموعة من الأسباب. في بعض الحالات، حتى المستخدمين الحذرين يكونون مرهقين أو يعانون من ضائقة عاطفية ويخطئون نتيجة لذلك. يفتقر المستخدمون الآخرون ببساطة إلى المعرفة اللازمة لاتخاذ قرارات مستنيرة.

قال أحد النقاد إن تحذير مايكروسوفت لا يزيد إلا قليلاً عن CYA (اختصار لـ Cover your Ass)، وهي مناورة قانونية تحاول حماية طرف ما من المسؤولية.

“ليس لدى مايكروسوفت (مثل بقية الصناعة) أي فكرة عن كيفية إيقاف الحقن الفوري أو الهلوسة، مما يجعلها غير صالحة بشكل أساسي لأي شيء خطير تقريبًا،” الناقد ريد ميديكي”https://infosec.exchange/@reedmideke@mastodon.social/115573662949058645″> قال. “الحل؟ تحويل المسؤولية إلى المستخدم. تمامًا مثل كل روبوت دردشة LLM لديه “أوه بالمناسبة، إذا كنت تستخدم هذا لأي شيء مهم، فتأكد من التحقق من الإجابات” إخلاء المسؤولية، بغض النظر عن أنك لن تحتاج إلى chatbot في المقام الأول إذا كنت تعرف الإجابة.

وكما أشار ميديكي، فإن معظم الانتقادات تمتد إلى عروض الذكاء الاصطناعي التي تدمجها شركات أخرى – بما في ذلك أبل، وجوجل، وميتا – في منتجاتها. في كثير من الأحيان، تبدأ عمليات التكامل هذه كميزات اختيارية وتصبح في النهاية إمكانات افتراضية سواء أرادها المستخدمون أم لا.

دان جودين هو محرر أمني أول في Ars Technica، حيث يشرف على تغطية البرامج الضارة والتجسس على الكمبيوتر وشبكات الروبوت واختراق الأجهزة والتشفير وكلمات المرور. يستمتع في أوقات فراغه بالبستنة والطبخ ومتابعة المشهد الموسيقي المستقل. يقع دان في سان فرانسيسكو. اتبعه في”https://infosec.exchange/@dangoodin” rel=”me”>هنا على مستودون و”https://bsky.app/profile/dangoodin.bsky.social”>هنا على بلوسكي. اتصل به على Signal على DanArs.82.

“0 0 80 80″>“none” عرض السكتة الدماغية=”0″ د=”M0 0h80v80H0z”/>“none” عرض السكتة الدماغية=”0″ د=”M0 0h80v80H0z”/>“currentColor” مسار المقطع=”url(#bubble-zero_svg__b)”>”M80 40c0 22.09-17.91 40-40 40S0 62.09 0 40 17.91 0 40 0s40 17.91 40 40″/>”M40 40 .59 76.58C-.67 77.84.22 80 2.01 80H40z”/> 69 تعليق

“none” د=”M0 0h40v26H0z”/>“none” د=”M0 0h40v26H0z”/>“none” مسار المقطع=”url(#most-read_svg__b)”>”currentColor” د=”M20 2h.8q1.5 0 3 .6c.6.2 1.1.4 1.7.6 1.3.5 2.6 1.3 3.9 2.1.6.4 1.2.8 1.8 1.3 2.9 2.3 5.1 4.9 6.3 6.4-1.1 1.5-3.4 4-6.3 6.4-.6.5-1.2.9-1.8 1.3q-1.95 1.35-3.9 2.1c-.6.2-1.1.4-1.7.6q-1.5.45-3 .6h-1.6q-1.5 0-3-.6c-.6-.2-1.1-.4-1.7-.6-1.3-.5-2.6-1.3-3.9-2.1-.6-.4-1.2-.8-1.8-1.3-2.9-2.3-5.1-4.9-6.3-6.4 1.1-1.5 3.4-4 6.3-6.4.6-.5 1.2-.9 1.8-1.3q1.95-1.35 3.9-2.1c.6-.2 1.1-.4 1.7-.6q1.5-.45 3-.6zm0-2h-1c-1.2 0-2.3.3-3.4.6-.6.2-1.3.4-1.9.7-1.5.6-2.9 1.4-4.3 2.3-.7.5-1.3.9-1.9 1.4C2.9 8.7 0 13 0 13s2.9 4.3 7.5 7.9c.6.5 1.3 1 1.9 1.4 1.3.9 2.7 1.7 4.3 2.3.6.3 1.3.5 1.9.7 1.1.3 2.3.6 3.4.6h2c1.2 0 2.3-.3 3.4-.6.6-.2 1.3-.4 1.9-.7 1.5-.6 2.9-1.4 4.3-2.3.7-.5 1.3-.9 1.9-1.4C37.1 17.3 40 13 40 13s-2.9-4.3-7.5-7.9c-.6-.5-1.3-1-1.9-1.4-1.3-.9-2.8-1.7-4.3-2.3-.6-.3-1.3-.5-1.9-.7C23.3.4 22.1.1 21 .1h-1″/>”#ff4e00″ د=”M20 5c-4.4 0-8 3.6-8 8s3.6 8 8 8 8-3.6 8-8-3.6-8-8-8m0 11c-1.7 0-3-1.3-3-3s1.3-3 3-3 3 1.3 3 3-1.3 3-3 3″/>
  1. “https://cdn.arstechnica.net/wp-content/uploads/2024/04/netflix-screen-768×432.jpg” البديل=”Listing image for first story in Most Read: Netflix quietly drops support for casting to most TVs” فك التشفير=”async” تحميل=”lazy”>

اقرأ المزيد

أصبح Seraphic هو الحل الآمن الأول والوحيد لمتصفح المؤسسات لحماية التطبيقات المعتمدة على الإلكترون
تكشف Microsoft عن جهاز كمبيوتر غائم جديد يعمل بالذكاء الاصطناعي وليس جهاز Copilot + PC

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل