أفادت تقارير بأن البنتاغون منح شركة Anthropic، مطورة نموذج الذكاء الاصطناعي Claude، مهلة تنتهي يوم الجمعة لإزالة بعض القيود الأمنية المفروضة على استخدامه في التطبيقات العسكرية. ويأتي هذا التصعيد في الضغط بعد اجتماع بين وزير الدفاع بيت هيجسيث والرئيس التنفيذي لشركة Anthropic، داريو أموداي.
إنذار نهائي من البنتاغون
يواجه مطورو نموذج Claude إنذارًا نهائيًا: إما الاستجابة لمطالب الحكومة بإزالة القيود على التطبيقات العسكرية، أو احتمال إجبارهم على تعديل نموذج الذكاء الاصطناعي الخاص بهم ليناسب احتياجات الحكومة بموجب قانون الإنتاج الدفاعي.
موقف Anthropic والقيود المفروضة
من جانبها، أكدت Anthropic استعدادها لتبني سياسات معينة للبنتاغون، لكنها شددت على أنها لن تسمح باستخدام نموذجها في مجالات مثل المراقبة الجماعية للمواطنين الأمريكيين أو تطوير الأسلحة ذاتية التشغيل. ويُعد Claude حاليًا نموذج الذكاء الاصطناعي الوحيد المستخدم في بعض المهام الحكومية شديدة الحساسية، مما يعكس أهميته وقدراته.
توسيع نطاق استخدام الذكاء الاصطناعي العسكري
في سياق متصل، يكثف البنتاغون محادثاته مع شركات تقنية كبرى أخرى مثل OpenAI وGoogle لاستخدام نماذجها في الأعمال السرية. وقد تمت بالفعل الموافقة على استخدام نماذج مثل ChatGPT وGemini في المهام الحكومية غير السرية. كما وقعت شركة xAI التابعة لإيلون ماسك مؤخرًا اتفاقية مع وزارة الدفاع لاستخدام نموذج Grok في الأنظمة السرية.
- الأهمية الاستراتيجية: يسلط هذا التطور الضوء على الأهمية المتزايدة للذكاء الاصطناعي في العمليات العسكرية والأمنية.
- التحديات الأخلاقية: تثير مطالب البنتاغون مخاوف بشأن الاستخدام الأخلاقي لتكنولوجيا الذكاء الاصطناعي، خاصة فيما يتعلق بالخصوصية وتطوير الأسلحة.
- ديناميكيات السوق: تعكس المنافسة بين الشركات لتقديم نماذج الذكاء الاصطناعي للحكومة التحديات والفرص في هذا القطاع.
يبقى التساؤل حول كيفية توصل البنتاغون وAnthropic إلى حل وسط يرضي الطرفين، مع الأخذ في الاعتبار المتطلبات الأمنية الوطنية والتداعيات الأخلاقية المحتملة لاستخدامات الذكاء الاصطناعي المتقدمة.