- كتبت شركات التكنولوجيا العملاقة والباحثون ومجموعات الصناعة رسالة مفتوحة، تحدثوا فيها ضد قوانين الاتحاد الأوروبي “المجزأة” فيما يتعلق بخصوصية البيانات.
- واشتكت الشركات من أن كل دولة عضو لديها تفسير مختلف لقواعد حماية البيانات العامة، مما يجعل من الصعب استخدام بيانات مواطني الاتحاد الأوروبي في تدريب الذكاء الاصطناعي.
- وحذرت الشركات أيضًا من أنه إذا لم يغير الاتحاد الأوروبي أساليبه، فقد يتخلف قريبًا في سباق الذكاء الاصطناعي.
في يوم الخميس، أعلنت العديد من شركات التكنولوجيا الكبرى مثل Meta وGoogle وSpotify تحدث ضد سياسة خصوصية البيانات الجديدة للاتحاد الأوروبي وهو ما قد يؤدي إلى خنق تطوير الذكاء الاصطناعي.
وقد قاموا أيضًا، جنبًا إلى جنب مع الباحثين ومجموعات الصناعة، بكتابة”https://www.wsj.com/tech/ai/meta-to-european-union-your-tech-rules-threaten-to-squelch-ai-boom-35297c03″>رسالة مفتوحة (وهو ما أقرته أيضًا علامة الأزياء الفاخرة الإيطالية برادا) موضحًا أن قد تتخلف أوروبا عن الدول الأخرى من حيث ابتكار الذكاء الاصطناعي إذا استمرت في فرض مثل هذه القواعد.
عن الرسالة
إن الاهتمام الرئيسي في الرسالة يتعلق بالإضافات الجديدة إلى اللائحة العامة لحماية البيانات (GDPR) – وهي مجموعة من قواعد خصوصية البيانات التي تم تقديمها لأول مرة في عام 2018.
وتقول الشركات أن لغة اللائحة العامة لحماية البيانات غامضة للغاية ومن الصعب فهم نوع البيانات التي يمكن استخدامها قانونيًا لتدريب الذكاء الاصطناعي. وقد وصفوا القوانين بأنها “قرارات تنظيمية مجزأة وغير متوقعة“.
إن ما يعنيه هذا في الأساس هو وجود تفسيرات مختلفة لقوانين اللائحة العامة لحماية البيانات في كل دولة عضو. وهذا بدوره يمنع الشركات من تحقيق أي تطور كبير في المنطقة.
على سبيل المثال، قامت شركة Meta (مالكة Instagram وFacebook وWhatsapp) بالفعل”https://techreport.com/news/meta-delay-using-eu-users-data-ai-training/”> علقت خططها لاستخدام بيانات المواطنين الأوروبيين تحت ضغط قوانين الخصوصية الصارمة التي تتبناها الشركة. كما أرجأت الشركة إطلاق منصتها الجديدة Threads لعدة أشهر بسبب مشكلات تنظيمية مماثلة.
كما قامت شركة جوجل بتأخير إطلاق بعض المنتجات، ومن الواضح أن هذه مشكلة تخص الصناعة بأكملها.
في الوقت الحالي، ما يبحثون عنه هو “قرارات منسجمة ومتسقة وسريعة وواضحة“من الجهات التنظيمية.”
من الطبيعي تمامًا أن تواجه شركات التكنولوجيا العملاقة هذه مشكلة مع اللوائح الصارمة، والتي منعهم من “أن يحققوا ما يريدون”كانت هناك العديد من الحالات التي تم فيها اكتشاف قيام الشركات باستخدام البيانات الشخصية للمستخدمين لأغراض تدريب الذكاء الاصطناعي دون موافقة المستخدم،”https://techreport.com/news/linkedin-your-data-train-ai-model/”>أحدث مثال على ذلك هو LinkedIn.
كصحفي”https://techreport.com/news/cory-doctorow-defcon-disenshittify/”>قال كوري دكتورو في خطابه الأخير في مؤتمر الدفاعتمنع اللوائح الشركات من استغلال منتجاتها واستغلال المستخدمين.
لفترة طويلة، كانت شركات التكنولوجيا العملاقةاحتكارات منظمة غير خاضعة للرقابة وأصبحت أكبر من الجهات التنظيمية. ولكن كل ذلك يتلاشى الآن مع إقرار التشريعات الصارمة في مختلف أنحاء العالم. أصبحت الجهات التنظيمية جادة بشأن خصوصية المستخدمين وهذه الشركات التقنية غاضبة بشكل واضح.
وهذا كله ‘التخلف في سباق الذكاء الاصطناعي“يبدو أن” عذر ضعيف لتخفيف القواعد التي لا تخدم مصالحهم بشكل جيد.
ماذا يقول الاتحاد الأوروبي في هذا الشأن؟
ورغم أن المتحدث باسم الاتحاد الأوروبي تناول الرسالة، فإن ما قاله لم يوضح الأمر بشكل أفضل. فقد كرر نفس الشيء ببساطة: من المتوقع أن تلتزم جميع الشركات العاملة في الاتحاد الأوروبي بالقواعد.
وعندما يطلب منك الاتحاد الأوروبي اتباع القواعد، إما أن تتبع القواعد أو تكون مستعدًا لمواجهة عواقب أفعالك.
إن الاتحاد الأوروبي صارم للغاية فيما يتعلق بخصوصية البيانات. لقد تعرضت شركات التكنولوجيا العملاقة مثل Meta بالفعل لمشاكل لا حصر لها بسبب انتهاك القواعد. ولديها سجل حافل بالانتهاكات.”https://techreport.com/news/norway-regulator-imposes-100k-daily-fine-on-meta-over-privacy-breaches/”>غرامة تتجاوز المليار يورو بموجب اللائحة العامة لحماية البيانات.
هذه ليست المرة الأولى التي تحذر فيها شركات التكنولوجيا الاتحاد الأوروبي من التخلف عن الركب. ولكن بالنسبة للاتحاد الأوروبي، كان شعبه دائمًا أكثر أهمية.
ولنفس السبب، فقد اتخذت أيضًا الخطوة الأولى في تقديم الإطار التنظيمي القياسي للذكاء الاصطناعي من خلال”https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence”>قانون الذكاء الاصطناعي لمنع إساءة استخدام هذه التكنولوجيا وتعزيز التنمية المستدامة.
عملية التحرير لدينا
تقرير التكنولوجيا”https://techreport.com/about/editorial-policy/”>السياسة التحريرية يركز على تقديم محتوى مفيد ودقيق يقدم قيمة حقيقية لقرائنا. نحن نعمل فقط مع الكتاب ذوي الخبرة الذين لديهم معرفة محددة في الموضوعات التي يغطونها، بما في ذلك أحدث التطورات في التكنولوجيا، والخصوصية عبر الإنترنت، والعملات المشفرة، والبرمجيات، والمزيد. تضمن سياستنا التحريرية أن يتم البحث في كل موضوع واختياره من قبل محررينا الداخليين. نحن نحافظ على معايير صحفية صارمة، وكل مقال مكتوب بنسبة 100٪ من قبل”https://techreport.com/authors/”>المؤلفون الحقيقيون.