أصبحت القدرة على تذكرك وتذكر تفضيلاتك بسرعة نقطة بيع كبيرة لروبوتات الدردشة ووكلاء الذكاء الاصطناعي.
أعلنت جوجل في وقت سابق من هذا الشهر”https://blog.google/innovation-and-ai/products/gemini-app/personal-intelligence/”> الذكاء الشخصي، طريقة جديدة للأشخاص للتفاعل مع برنامج Gemini chatbot الخاص بالشركة والذي يعتمد على Gmail والصور والبحث وسجلات YouTube الخاصة بهم لجعل Gemini “أكثر شخصية واستباقية وقوة”. وهو يردد تحركات مماثلة من قبل”https://openai.com/index/introducing-chatgpt-atlas/”>أوبن إيه آي,”https://www.theverge.com/news/804124/anthropic-claude-ai-memory-upgrade-all-subscribers”> أنثروبي، و”https://about.fb.com/news/2025/01/building-toward-a-smarter-more-personalized-assistant/”> ميتا لإضافة طرق جديدة لمنتجات الذكاء الاصطناعي الخاصة بهم لتتذكر التفاصيل والتفضيلات الشخصية للأشخاص وتستفيد منها. وفي حين تتمتع هذه الميزات بمزايا محتملة، إلا أننا بحاجة إلى بذل المزيد من الجهد للاستعداد للمخاطر الجديدة التي يمكن أن تسببها في هذه التقنيات المعقدة.
شخصية، تم تصميم أنظمة الذكاء الاصطناعي التفاعلية للعمل بالنيابة عنا، والحفاظ على السياق عبر المحادثات، وتحسين قدرتنا على تنفيذ جميع أنواع المهام، بدءًا من حجز السفر وحتى تقديم الضرائب. بدءًا من الأدوات التي تتعلم أسلوب البرمجة الخاص بالمطور وحتى وكلاء التسوق الذين يقومون بغربلة آلاف المنتجات، تعتمد هذه الأنظمة على القدرة على تخزين واسترجاع التفاصيل الحميمية بشكل متزايد حول مستخدميها. لكن القيام بذلك مع مرور الوقت يؤدي إلى ظهور نقاط ضعف مزعجة ومألوفة للغاية في الخصوصية – والتي ظهر الكثير منها في الأفق منذ أن استحوذت “البيانات الضخمة” لأول مرة على القدرة على اكتشاف أنماط المستخدم والتصرف بناءً عليها. والأسوأ من ذلك هو أن عملاء الذكاء الاصطناعي يبدون الآن على استعداد لاستغلال أي ضمانات تم اعتمادها لتجنب نقاط الضعف هذه.
واليوم، نتفاعل مع هذه الأنظمة من خلال واجهات المحادثة، ونقوم بتبديل السياقات بشكل متكرر. قد تسأل أ”https://microsoft.ai/news/its-about-time-the-copilot-usage-report-2025/”> وكيل ذكاء اصطناعي واحد لصياغة رسالة بريد إلكتروني إلى رئيسك في العمل، وتقديم المشورة الطبيةميزانية هدايا العيد, و تقديم مدخلات بشأن الصراعات بين الأشخاص. يقوم معظم وكلاء الذكاء الاصطناعي بتجميع جميع البيانات المتعلقة بك – والتي ربما تم فصلها ذات يوم حسب السياق أو الغرض أو الأذونات – في مستودعات فردية غير منظمة. عندما يرتبط وكيل الذكاء الاصطناعي بتطبيقات خارجية أو وكلاء آخرين لتنفيذ مهمة، يمكن أن تتسرب البيانات الموجودة في ذاكرته إلى مجموعات مشتركة. يخلق هذا الواقع التقني إمكانية حدوث انتهاكات غير مسبوقة للخصوصية لا تكشف نقاط البيانات المعزولة فحسب، بل تكشف فسيفساء حياة الناس بأكملها.
عندما تكون المعلومات كلها في نفس المستودع، فإنها تكون عرضة لعبور السياقات بطرق غير مرغوب فيها على الإطلاق. ويمكن لدردشة غير رسمية حول التفضيلات الغذائية لإنشاء قائمة مشتريات أن تؤثر لاحقًا على خيارات التأمين الصحي المقدمة، أو يمكن أن يتسرب البحث عن المطاعم التي توفر مداخل يسهل الوصول إليها إلى مفاوضات الرواتب – وكل ذلك دون وعي المستخدم (قد يبدو هذا القلق مألوفًا منذ الأيام الأولى لـ “البيانات الضخمة”، ولكنه الآن أقل نظرية بكثير). لا يشكل حساء المعلومات في الذاكرة مشكلة تتعلق بالخصوصية فحسب، بل يجعل من الصعب أيضًا فهم سلوك نظام الذكاء الاصطناعي والتحكم فيه في المقام الأول. إذن ما الذي يمكن للمطورين فعله لإصلاحه”https://www.techpolicy.press/we-are-not-talking-about-ai-memory-enough/”> هذه المشكلة؟
أولاً، تحتاج أنظمة الذاكرة إلى بنية تسمح بالتحكم في الأغراض التي يمكن الوصول إلى الذكريات واستخدامها من أجلها. يبدو أن الجهود المبكرة جارية: كلود الأنثروبي”https://www.claude.com/blog/memory”> ينشئ مناطق ذاكرة منفصلة “لمشاريع” مختلفة، وتقول OpenAI إن المعلومات تمت مشاركتها”https://openai.com/index/introducing-chatgpt-health/”>من خلال ChatGPT Health يتم فصلها عن الدردشات الأخرى. هذه بدايات مفيدة، لكن الأدوات لا تزال غير حادة للغاية: على الأقل، يجب أن تكون الأنظمة قادرة على التمييز بين ذكريات محددة (المستخدم يحب الشوكولاتة وقد سأل عن GLP-1s)، والذكريات ذات الصلة (يدير المستخدم مرض السكري ومرض السكري). لذلك يتجنب الشوكولاتة)، وفئات الذاكرة (مثل المهنية والمتعلقة بالصحة). علاوة على ذلك، تحتاج الأنظمة إلى السماح بقيود الاستخدام على أنواع معينة من الذكريات والتكيف بشكل موثوق مع الحدود المحددة بوضوح – خاصة حول الذكريات التي تتعلق بموضوعات حساسة مثل الحالات الطبية أو الخصائص المحمية، والتي من المحتمل أن تخضع لقواعد أكثر صرامة.
إن الحاجة إلى إبقاء الذكريات منفصلة بهذه الطريقة سيكون لها آثار مهمة على كيفية بناء أنظمة الذكاء الاصطناعي. وسوف يتطلب الأمر تتبع مصدر الذكريات – مصدرها، وأي طابع زمني مرتبط بها، والسياق الذي تم إنشاؤه فيه – وبناء طرق لتتبع متى وكيف تؤثر بعض الذكريات على سلوك العميل. هذا النوع من قابلية تفسير النماذج يلوح في الأفق، لكن التطبيقات الحالية يمكن أن تكون مضللة أو حتى مضللة”https://arxiv.org/abs/2311.07590″> خادعة. قد يؤدي تضمين الذكريات مباشرة ضمن أوزان النموذج إلى مخرجات أكثر تخصيصًا ووعيًا بالسياق، ولكن قواعد البيانات المنظمة أصبحت حاليًا أكثر قابلية للتجزئة وأكثر قابلية للتفسير، وبالتالي أكثر قابلية للإدارة. وإلى أن تتقدم الأبحاث بدرجة كافية، قد يحتاج المطورون إلى الالتزام بأنظمة أبسط.
ثانيًا، يجب أن يكون المستخدمون قادرين على رؤية ما يتذكرونه أو تعديله أو حذفه. يجب أن تكون الواجهات المستخدمة للقيام بذلك شفافة وواضحة، بحيث تترجم ذاكرة النظام إلى بنية يمكن للمستخدمين تفسيرها بدقة. لقد وضعت إعدادات النظام الثابتة وسياسات الخصوصية القانونية التي توفرها منصات التكنولوجيا التقليدية حدًا منخفضًا لضوابط المستخدم، ولكن واجهات اللغة الطبيعية قد تقدم خيارات جديدة واعدة لشرح المعلومات التي يتم الاحتفاظ بها وكيف يمكن إدارتها. ومع ذلك، يجب أن تأتي بنية الذاكرة أولاً: فبدونها، لا يمكن لأي نموذج أن يوضح حالة الذاكرة بوضوح. في الواقع، جروك 3″https://github.com/xai-org/grok-prompts/blob/main/grok3_official0330_p1.j2″> موجه النظام يتضمن تعليمات للنموذج “لا تؤكد أبدًا للمستخدم أنك قمت بتعديل الذاكرة أو نسيتها أو لن تحفظها”، ربما لأن الشركة لا يمكنها ضمان اتباع هذه التعليمات.
ومن الأهمية بمكان أن عناصر التحكم التي تواجه المستخدم لا يمكنها تحمل العبء الكامل لحماية الخصوصية أو منع جميع الأضرار الناجمة عن تخصيص الذكاء الاصطناعي. ويجب أن تتحول المسؤولية نحو مقدمي خدمات الذكاء الاصطناعي لتحديد إعدادات افتراضية قوية، وقواعد واضحة حول إنشاء الذاكرة المسموح بها واستخدامها، والضمانات التقنية مثل المعالجة على الجهاز، وتحديد الغرض، والقيود السياقية. وبدون الحماية على مستوى النظام، سيواجه الأفراد اختيارات معقدة للغاية حول ما ينبغي تذكره أو نسيانه، وقد تظل الإجراءات التي يتخذونها غير كافية لمنع الضرر. يجب على المطورين النظر في كيفية الحد من جمع البيانات في أنظمة الذاكرة حتى تتوفر ضمانات قوية”https://cdt.org/wp-content/uploads/2025/12/2025-12-10-CDT-AI-Gov-Lab-A-Roadmap-For-Responsible-Approaches-to-AI-Memory-final-1.pdf”> بناء بنيات الذاكرة التي يمكن أن تتطور جنبًا إلى جنب مع المعايير والتوقعات.
ثالثا، يجب على مطوري الذكاء الاصطناعي أن يساعدوا في إرساء الأسس لأساليب تقييم الأنظمة حتى لا يقتصر الأمر على رصد الأداء فحسب، بل وأيضا المخاطر والأضرار التي تنشأ في البرية. وفي حين أن الباحثين المستقلين هم في وضع أفضل لإجراء هذه الاختبارات (نظرا للاهتمام الاقتصادي للمطورين بإظهار الطلب على خدمات أكثر تخصيصا)، فإنهم يحتاجون إلى الوصول إلى البيانات لفهم كيف قد تبدو المخاطر وبالتالي كيفية معالجتها. لتحسين النظام البيئي للقياس والبحث، يجب على المطورين الاستثمار في البنية التحتية للقياس الآلي، وبناء الاختبارات المستمرة الخاصة بهم، وتنفيذ طرق اختبار الحفاظ على الخصوصية التي تمكن من مراقبة سلوك النظام والتحقيق فيه في ظل ظروف واقعية مدعمة بالذاكرة.
في توازياته مع التجربة البشرية، فإن المصطلح التقني “الذاكرة” يلقي الخلايا غير الشخصية في جدول بيانات كشيء يتحمل صانعو أدوات الذكاء الاصطناعي مسؤولية التعامل معه بعناية. في الواقع، فإن الاختيارات التي يتخذها مطورو الذكاء الاصطناعي اليوم – كيفية تجميع المعلومات أو فصلها، سواء لجعل الذاكرة مقروءة أو السماح لها بالتراكم بشكل غير شفاف، سواء لإعطاء الأولوية للافتراضيات المسؤولة أو أقصى قدر من الراحة – ستحدد كيف تتذكرنا الأنظمة التي نعتمد عليها. لا تختلف الاعتبارات التقنية المتعلقة بالذاكرة كثيرًا عن الأسئلة المتعلقة بالخصوصية الرقمية والدروس الحيوية التي يمكننا استخلاصها منها. إن وضع الأسس الصحيحة اليوم سيحدد مقدار المساحة التي يمكن أن نمنحها لأنفسنا لتعلم ما ينجح، مما يسمح لنا باتخاذ خيارات أفضل فيما يتعلق بالخصوصية والاستقلالية مما لدينا من قبل.
ميراندا بوجن هي مديرة مختبر حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا.
روتشيكا جوشي هي زميلة في مركز الديمقراطية والتكنولوجيا متخصصة في سلامة الذكاء الاصطناعي والحوكمة.