من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

تعد القدرة على التعلم من الأخطاء الجماعية ميزة أساسية تُروّج لها تقنيات القيادة الذاتية. فكما تشير وايمو على موقعها الإلكتروني، فإن سائقها يتعلم من التجارب المتراكمة عبر أسطولها. لكن في أوستن، تبيّن أن هذا الوعد يواجه تحدياً كبيراً، حيث كافحت مركبات وايمو لأشهر عديدة لتتعلم كيفية التوقف للحافلات المدرسية أثناء صعود الأطفال ونزولهم بأمان.

أفاد مسؤولون في منطقة مدارس أوستن المستقلة (AISD) بوقوع 19 حالة على الأقل تجاوزت فيها مركبات وايمو الحافلات المدرسية بشكل غير قانوني وخطير، بينما كانت الأضواء الحمراء الوامضة وأذرع التوقف ممتدة، في مخالفة صريحة للقانون. هذا الوضع دفع وايمو لإصدار استدعاء فيدرالي في أوائل ديسمبر، معترفة بـ 12 حادثة منها على الأقل للهيئة الوطنية لسلامة المرور على الطرق السريعة (NHTSA). ورغم إعلان الشركة عن تطوير تحديثات برمجية لمعالجة المشكلة، إلا أن الحوادث استمرت، وفقاً لمسؤولي المدارس وتقارير المجلس الوطني لسلامة النقل (NTSB).

في محاولة يائسة لحل الأزمة، أظهرت رسائل البريد الإلكتروني والرسائل النصية بين مسؤولي المدرسة وممثلي وايمو، التي حصلت عليها WIRED، مدى الجهد الذي بذلته منطقة أوستن التعليمية. فقد استضافت AISD حدثاً لجمع البيانات لمدة نصف يوم في منتصف ديسمبر، حيث قامت بجمع حافلات مدرسية وإشارات توقف مختلفة لمساعدة وايمو على جمع معلومات حول المركبات وأضوائها الوامضة. ومع ذلك، وبحلول منتصف يناير، وبعد أكثر من شهر من جهود التعلم، أبلغت المنطقة عن أربع حوادث أخرى على الأقل لتجاوز الحافلات المدرسية.

صرح مسؤول في قسم شرطة المدرسة لشبكة NBC المحلية في ذلك الشهر: البيانات التي جمعناها تظهر أن نحو 98% من المخالفين يتعلمون ولا يكررون المخالفة، مما يعني أن الشخص يتعلم. لكن يبدو أن نظام التشغيل الآلي في وايمو لا يتعلم من خلال تحديثات برامجه أو استدعائه. هذا الوضع يثير تساؤلات جدية حول نقاط الضعف في تقنيات القيادة الذاتية وقدرة الصناعة على التغلب عليها حتى بعد اكتشافها.

تجاوزات متكررة رغم التدخل

بحلول منتصف شتاء عام 2025، كان إحباط مسؤولي AISD قد بلغ ذروته. ففي إحدى الحوادث الـ 19 التي ادعى محامي المنطقة وقوعها، تجاوزت سيارة وايمو حافلة مدرسية للسماح للأطفال بالنزول، وذلك بعد لحظات فقط من عبور أحد الطلاب أمام السيارة، وبينما كان الطالب لا يزال على الطريق. وقد وصف المحامي هذا الموقف بالمثير للقلق بشكل خاص، حيث وقعت خمسة من الحوادث المزعومة بعد أن أكدت وايمو للمنطقة أنها قامت بتحديث برامجها لإصلاح المشكلة.

في نفس اليوم الذي ظهرت فيه أخبار استدعاء وايمو في ديسمبر، تواصل مدير الاستجابة للطوارئ والتوعية في الشركة، روب باتريك، مع مساعد رئيس قسم شرطة مقاطعة أوستن. قدم باتريك ووايمو اقتراحاً لجمع بيانات حول الحافلات المدرسية في المنطقة، بهدف تمكين سياراتهم من التعرف عليها بشكل أفضل. وافقت المنطقة، وفي غضون أيام قليلة، تم جمع ما لا يقل عن سبع حافلات تمثل جميع الطرازات في الأسطول لتوفير البيانات اللازمة. انتهى حدث جمع البيانات، وأبلغت وايمو مسؤولي المدرسة بأنها حصلت على ما تحتاجه.

لكن حوادث تجاوز الحافلات المدرسية من قبل وايمو لم تتوقف. كشف تقرير أولي صادر عن NTSB في أوائل مارس أن أحد الحوادث اللاحقة، في 12 يناير، وقع بعد أن قام مساعد بعيد تابع لوايمو، وهو إنسان مقيم في ميشيغان يقدم المساعدة للبرنامج عند مواجهته صعوبات على الطريق، بإبلاغ سيارة الأجرة الآلية بشكل خاطئ بأن الحافلة المدرسية التي أمامها لا تحتوي على إشارات نشطة. ونتيجة لذلك، تجاوزت ست مركبات الحافلة المدرسية بينما كانت متوقفة. ولا يزال التحقيق جارياً في هذا الحادث.

بعد أيام قليلة من حوادث يناير تلك، صدمت سيارة وايمو طفلاً كان يعبر أمام السيارة بالقرب من مدرسة في سانتا مونيكا، كاليفورنيا. لحسن الحظ، لم يصب الطفل بأذى، وقد صرحت وايمو لاحقاً أن نماذجها أظهرت أن سائقاً بشرياً كان سيصدم الطفل بسرعة أكبر من سيارتها، مما يضيف طبقة أخرى من التعقيد للمناقشة حول السلامة.

لماذا تتعثر أنظمة التعلم الآلي؟ رؤى الخبراء

توضح ميسي كامينغز، الباحثة في المركبات ذاتية القيادة بجامعة جورج ماسون ومستشارة السلامة السابقة في NHTSA، أنها لم تتفاجأ بأن حدث جمع البيانات الذي أجرته وايمو لم يحل جميع المشكلات. فالبيانات التي يتم جمعها في مواقف السيارات، خارج السياق الحقيقي للقيادة، قد لا تكون كافية لتدريب أنظمة الذكاء الاصطناعي في السيارة بفعالية. وقد يستغرق الأمر أسابيع أو حتى أشهر حتى يتمكن المطورون من استخدام البيانات الجديدة. وتشدد كامينغز على أنه لا ينبغي السماح لوايمو بالعمل حول المدارس أثناء أوقات الدخول والخروج حتى يتم حل هذه المشكلة بشكل قاطع وتثبت من خلال اختبارات محددة.

ويشير فيليب كوبمان، الباحث في برامج المركبات ذاتية القيادة والسلامة بجامعة كارنيجي ميلون، إلى أن حوادث الحافلات المدرسية تمثل تحدياً خاصاً لبرنامج وايمو. فإشارات التوقف يمكن أن تعني أشياء مختلفة قليلاً في سياقات متنوعة: إشارات التوقف عند التقاطعات، إشارات عمال الطرق، وإشارات التوقف الملحقة بالحافلات المدرسية. يقول كوبمان إن وايمو تحاول تعليم برمجياتها شيئاً دقيقاً للغاية ومعقداً في فروقاته الدقيقة.

تُشير هذه الحلقة برمتها إلى التحديات المعقدة لتشغيل الروبوتات المعتمدة على البرمجيات على طرق بشرية لا يمكن التنبؤ بها في بعض الأحيان. إن تعليم البرامج للقيادة بأمان بنسبة 99% من الوقت هو الجزء السهل، كما يقول كوبمان. لكن نسبة الـ 1% الأخيرة صعبة للغاية، لأننا نحاول تعليم الاستثناءات والسيناريوهات النادرة. ويختتم كوبمان قائلاً: تكافح وايمو لتعليم التعلم الآلي الخاص بها الدرس الذي تريده أن يتعلمه. هذه ليست مفاجأة، فلطالما كانت هذه مشكلة.

أجهزة كشف الكذب لها عيوب كبيرة. هل هناك خيارات أفضل؟
أفضل 9 هواتف أندرويد لعام 2026، تم اختبارها ومراجعتها

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل