رئيس الشؤون القانونية في GitHub ضابط، شيلي ماكينلي، لديها الكثير على طبقها، مع ماذامناوشات قانونية حولها مساعد الطيار الزوجي مبرمج، وكذلك قانون الذكاء الاصطناعي (AI) الذي كان تم التصويت عليه من خلال البرلمان الأوروبي هذا الأسبوع باعتباره “أول قانون شامل للذكاء الاصطناعي في العالم.”
ثلاث سنوات فى صنع، أطل قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي برأسه لأول مرة مرة أخرى في عام 2021 من خلال مقترحات مصممة لمعالجة الوصول المتزايد للذكاء الاصطناعي إلى حياتنا اليومية. تم إعداد الإطار القانوني الجديد ليحكم تطبيقات الذكاء الاصطناعي بناءً على المخاطر المتصورة، مع قواعد وشروط مختلفة اعتمادًا على التطبيق وحالة الاستخدام.
جيثب، والتي اشترت شركة مايكروسوفت مقابل 7.5 مليار دولار في عام 2018، برز كواحد من أكثر الرافضين صوتًا حول عنصر محدد جدًا من اللوائح: الصياغة الموحلة حول الكيفية التي قد تخلق بها القواعد مسؤولية قانونية لمطوري البرمجيات مفتوحة المصدر.
انضم ماكينلي إلى Microsoft في عام 2005، وعمل في أدوار قانونية مختلفة بما في ذلك شركات الأجهزة مثل Xbox وHololens، بالإضافة إلى مناصب المستشار العام في ميونيخ وأمستردام، قبل أن يتولى منصب كبير المسؤولين القانونيين في GitHub قبل ثلاث سنوات.
قال ماكينلي لـ TechCrunch: “لقد انتقلت إلى GitHub في عام 2021 لتولي هذا الدور، والذي يختلف قليلاً عن بعض أدوار كبار المسؤولين القانونيين – وهو متعدد التخصصات”. “لذلك لدي أشياء قانونية قياسية مثل العقود التجارية، والمنتجات، وقضايا الموارد البشرية. وبعد ذلك لدي إمكانية الوصول، لذلك [that means] قيادة مهمة إمكانية الوصول لدينا، مما يعني أنه يمكن لجميع المطورين استخدام أدواتنا وخدماتنا لإنشاء الأشياء.
تم تكليف ماكينلي أيضًا بالإشراف على الاستدامة البيئية، والتي ترتقي مباشرة إلى أهداف الاستدامة الخاصة بشركة Microsoft. ثم هناك قضايا تتعلق بالثقة والأمان، والتي تغطي أشياء مثل الإشراف على المحتوى لضمان “بقاء GitHub مكانًا ترحيبيًا وآمنًا وإيجابيًا للمطورين”، على حد تعبير ماكينلي.
ولكن لا يمكن تجاهل حقيقة أن دور ماكينلي أصبح متشابكًا بشكل متزايد مع عالم الذكاء الاصطناعي.
قبل أن يحصل قانون الاتحاد الأوروبي للذكاء الاصطناعي على الضوء الأخضر هذا الأسبوع، التقت TechCrunch مع ماكينلي في لندن.
عالمان يتصادمان
بالنسبة لغير المألوفين، GitHub عبارة عن منصة تتيح تطوير البرامج التعاونية، مما يسمح للمستخدمين باستضافة وإدارة ومشاركة “مستودعات” التعليمات البرمجية (موقع يتم فيه الاحتفاظ بالملفات الخاصة بالمشروع) مع أي شخص، في أي مكان في العالم. يمكن للشركات أن تدفع مقابل جعل مستودعاتها خاصة للمشاريع الداخلية، لكن نجاح GitHub وحجمه كان مدفوعًا بتطوير برمجيات مفتوحة المصدر يتم تنفيذها بشكل تعاوني في بيئة عامة.
في السنوات الست التي تلت الاستحواذ على مايكروسوفت، تغير الكثير في المشهد التكنولوجي. منظمة العفو الدولية لم يكن بالضبط رواية عام 2018، و وأصبح التأثير المتزايد أكثر وضوحا عبر المجتمع – ولكن مع ظهور ChatGPT، وDALL-E، و البقيةلقد وصل الذكاء الاصطناعي بقوة إلى الوعي السائد.
“أود أن أقول إن الذكاء الاصطناعي آخذ في الارتفاع [a lot of] وقتي – يتضمن أشياء مثل “كيف يمكننا تطوير وشحن منتجات الذكاء الاصطناعي”، و”كيف ننخرط في مناقشات الذكاء الاصطناعي التي تجري من منظور السياسة؟”، بالإضافة إلى “كيف نفكر في الذكاء الاصطناعي باعتباره قال ماكينلي: “هل يأتي على منصتنا؟”.
لقد اعتمد تقدم الذكاء الاصطناعي أيضًا بشكل كبير على المصادر المفتوحة، حيث كان التعاون والبيانات المشتركة محورية لبعض أنظمة الذكاء الاصطناعي الأكثر بروزًا اليوم – وربما يكون هذا أفضل مثال على الملصق التوليدي للذكاء الاصطناعي OpenAI، والذي بدأ بمصدر قوي مفتوح. الأساس قبل التخلي عن تلك الجذور من أجل مسرحية أكثر ملكية (هذا المحور هو أيضًا أحد الأسباب يرفع Elon Musk حاليًا دعوى قضائية ضد OpenAI).
على الرغم من حسن النية التي قد تكون عليها لوائح الذكاء الاصطناعي القادمة في أوروبا، جادل النقاد بأنه سيكون لها عواقب كبيرة غير مقصودة لمجتمع المصادر المفتوحة، والذي بدوره يمكن أن يعيق تقدم الذكاء الاصطناعي. لقد كانت هذه الحجة محورية في جهود الضغط التي تبذلها GitHub.
قال ماكينلي: “المنظمون وصانعو السياسات والمحامون… ليسوا متخصصين في التكنولوجيا”. “وأحد أهم الأشياء التي شاركت فيها شخصيًا خلال العام الماضي هو الخروج والمساعدة في تثقيف الناس حول كيفية عمل المنتجات. يحتاج الناس فقط إلى فهم أفضل لما يحدث، حتى يتمكنوا من التفكير في هذه القضايا والتوصل إلى الاستنتاجات الصحيحة فيما يتعلق بكيفية تنفيذ التنظيم.
وكان جوهر المخاوف هو أن اللوائح ستخلق مسؤولية قانونية لأنظمة الذكاء الاصطناعي ذات الأغراض العامة مفتوحة المصدر، والتي بنيت على نماذج قادرة على التعامل مع العديد من المهام المختلفة. إذا تم تحميل مطوري الذكاء الاصطناعي مفتوح المصدر المسؤولية عن المشكلات التي تنشأ بشكل أكبر (على سبيل المثال، على مستوى التطبيق)، فقد يكونون أقل ميلاً للمساهمة – وفي هذه العملية، سيتم منح المزيد من القوة والتحكم لشركات التكنولوجيا الكبرى. تطوير أنظمة الملكية.
إن تطوير البرمجيات مفتوحة المصدر بطبيعته يتم توزيعه، وGitHub — بطبيعته أكثر من 100 مليون مطور عالميًا – يحتاج إلى تحفيز المطورين لمواصلة المساهمة في ما يروج له الكثيرون باسم الثورة الصناعية الرابعة. ولهذا السبب كان GitHub صاخبًا جدًا بشأن قانون الذكاء الاصطناعي، الضغط من أجل الإعفاءات للمطورين الذين يعملون على تقنية الذكاء الاصطناعي للأغراض العامة مفتوحة المصدر.
وقال ماكينلي: “إن GitHub هو موطن المصادر المفتوحة، ونحن نشرف على أكبر مجتمع مفتوح المصدر في العالم”. “نريد أن نكون موطنًا لجميع المطورين، ونريد تسريع التقدم البشري من خلال تعاون المطورين. ولذلك بالنسبة لنا، فهي مهمة بالغة الأهمية – إنها ليست مجرد “متعة الحصول عليها” أو “من الجيد الحصول عليها” – إنها جوهر ما نقوم به كشركة كمنصة.”
ومع تطور الأمور، يتضمن نص قانون الذكاء الاصطناعي الآن بعض الاستثناءات لنماذج وأنظمة الذكاء الاصطناعي التي تم إصدارها بموجب تراخيص مجانية ومفتوحة المصدر – على الرغم من أن الاستثناء الملحوظ يشمل الحالات التي تلعب فيها أنظمة الذكاء الاصطناعي عالية المخاطر “غير المقبولة”. لذلك، في الواقع، لا يتعين على المطورين الذين يقفون وراء نماذج الذكاء الاصطناعي للأغراض العامة مفتوحة المصدر تقديم نفس المستوى من الوثائق والضمانات إلى الجهات التنظيمية في الاتحاد الأوروبي – على الرغم من أنه ليس من الواضح بعد أي النماذج الخاصة والمفتوحة المصدر التي ستندرج تحت “المخاطر العالية” التصنيف.
لكن بغض النظر عن هذه التعقيدات، يعتقد ماكينلي أن عملهم الشاق في مجال الضغط قد أتى بثماره في الغالب، حيث ركز المنظمون بشكل أقل على “مكونات” البرمجيات (العناصر الفردية للنظام التي من المرجح أن ينشئها مطورو البرامج مفتوحة المصدر)، والمزيد على ما هو مطلوب. يحدث على مستوى التطبيق المترجمة.
وقال ماكينلي: “إن هذه نتيجة مباشرة للعمل الذي قمنا به للمساعدة في تثقيف صناع السياسات حول هذه المواضيع”. “ما تمكنا من مساعدة الناس على فهمه هو الجانب المكون منه – هناك مكونات مفتوحة المصدر يتم تطويرها طوال الوقت، والتي يتم طرحها مجانًا والتي [already] تتمتع بقدر كبير من الشفافية من حولها، كما هو الحال بالنسبة لنماذج الذكاء الاصطناعي مفتوحة المصدر. ولكن كيف نفكر في توزيع المسؤولية بشكل مسؤول؟ هذا في الحقيقة لا يتعلق بالمطورين الأوليين، إنه مجرد منتجات تجارية في الواقع. لذلك أعتقد أن هذا فوز كبير حقًا للابتكار، وفوز كبير لمطوري المصادر المفتوحة.
أدخل مساعد الطيار
مع ال طرح أداة البرمجة الزوجية المدعومة بالذكاء الاصطناعي Copilot قبل ثلاث سنوات، مهد GitHub الطريق لثورة الذكاء الاصطناعي التوليدية التي يبدو أنها ستقلب كل صناعة رأسًا على عقب، بما في ذلك تطوير البرمجيات. يقترح مساعد الطيار خطوطًا أو وظائف حسب ما يفعله مطور البرامج، تمامًا مثل الطريقة ميزة الإنشاء الذكي في Gmail يعمل على تسريع عملية كتابة البريد الإلكتروني من خلال اقتراح الجزء التالي من النص في الرسالة.
ومع ذلك، فقد أزعج برنامج Copilot قطاعًا كبيرًا من مجتمع المطورين، بما في ذلك أولئك العاملين في مؤسسة Software Freedom Conservancy غير الهادفة للربح، والذين دعا جميع مطوري البرامج مفتوحة المصدر إلى التخلص من GitHub في أعقاب الإطلاق التجاري لمساعد الطيار في عام 2022. المشكلة؟ Copilot هي خدمة خاصة مدفوعة الأجر تستفيد من العمل الشاق الذي يقوم به مجتمع المصادر المفتوحة. علاوة على ذلك، تم تطوير Copilot بالتعاون مع OpenAI (من قبل جنون ChatGPT) ، يميل بشكل جوهري مخطوطة OpenAI، والتي تم تدريبها على كمية هائلة من كود المصدر العام ونماذج اللغة الطبيعية.
يثير برنامج Copilot في نهاية المطاف أسئلة أساسية حول من قام بتأليف جزء من البرنامج – إذا كان مجرد ترميز برمجي كتبه مطور آخر، ألا يجب أن يحصل هذا المطور على الفضل في ذلك؟ منظمة حماية حرية البرمجياتبرادلي م. كون كتب قطعة كبيرة على وجه التحديد حول هذه المسألة، بعنوان: “إذا كان البرنامج هو مساعد الطيار الخاص بي، فمن الذي برمج برنامجي؟“
هناك فكرة خاطئة مفادها أن البرامج “مفتوحة المصدر” هي برامج مجانية للجميع – حيث يمكن لأي شخص ببساطة أن يأخذ التعليمات البرمجية المنتجة بموجب ترخيص مفتوح المصدر ويفعل بها ما يحلو له. ولكن على الرغم من أن تراخيص المصادر المفتوحة المختلفة لها قيود مختلفة، إلا أنها جميعًا تحتوي إلى حد كبير على شرط واحد ملحوظ: يحتاج المطورون الذين يعيدون تخصيص التعليمات البرمجية المكتوبة بواسطة شخص آخر إلى تضمين الإسناد الصحيح. من الصعب القيام بذلك إذا كنت لا تعرف من (إن وجد) الذي كتب الكود الذي يخدمك فيه برنامج Copilot.
تسلط مشكلة مساعد الطيار الضوء أيضًا على بعض الصعوبات في فهم ماهية الذكاء الاصطناعي التوليدي. يتم تدريب النماذج اللغوية الكبيرة، مثل تلك المستخدمة في أدوات مثل ChatGPT أو Copilot، على مساحات شاسعة من البيانات – مثلما يتعلم مطور البرامج البشري القيام بشيء ما عن طريق البحث في التعليمات البرمجية السابقة، فمن المرجح دائمًا أن ينتج Copilot مخرجات مشابهة (أو حتى مطابقًا) لما تم إنتاجه في مكان آخر. بمعنى آخر، عندما يتطابق مع الكود العام، تنطبق المطابقة “كثيرًا” على “العشرات إن لم يكن المئات“من المستودعات.
وقال ماكينلي: “هذا هو الذكاء الاصطناعي التوليدي، وهو ليس آلة نسخ ولصق”. “المرة الوحيدة التي قد يقوم فيها برنامج Copilot بإخراج تعليمات برمجية تتطابق مع التعليمات البرمجية المتاحة للعامة، بشكل عام، هي إذا كانت طريقة شائعة جدًا لفعل شيء ما. ومع ذلك، سمعنا أن الناس لديهم مخاوف بشأن هذه الأشياء – ونحن نحاول اتباع نهج مسؤول، للتأكد من أننا نلبي احتياجات مجتمعنا فيما يتعلق بالمطورين. [that] متحمسون حقًا لهذه الأداة. لكننا نستمع إلى تعليقات المطورين أيضًا.
وفي نهاية عام 2022، رفع العديد من مطوري البرامج الأمريكيين دعوى قضائية ضد الشركة زاعمين أن برنامج Copilot ينتهك قانون حقوق الطبع والنشر، واصفين إياه بأنه “قرصنة برمجيات مفتوحة المصدر غير مسبوقة”. في الأشهر الفاصلة، تمكنت شركات Microsoft وGitHub وOpenAI من إلغاء جوانب مختلفة من القضية، ولكن تستمر الدعوى، حيث قدم المدعون مؤخرًا شكوى معدلة حول خرق GitHub المزعوم للعقد مع مطوريه.
ولم تكن المناوشات القانونية مفاجأة تمامًا، كما يشير ماكينلي. قال ماكينلي: “لقد سمعنا بالتأكيد من المجتمع – لقد رأينا جميعًا الأشياء التي كانت هناك، فيما يتعلق بالمخاوف التي أثيرت”.
مع أخذ ذلك في الاعتبار، بذل GitHub بعض الجهود لتهدئة المخاوف بشأن الطريقة التي قد “يستعير بها” Copilot التعليمات البرمجية التي أنشأها مطورون آخرون. على سبيل المثال، أدخلت “كشف الازدواجية” ميزة. يتم إيقاف تشغيله افتراضيًا، ولكن بمجرد تنشيطه، سيحظر برنامج Copilot اقتراحات إكمال التعليمات البرمجية لأكثر من 150 حرفًا تتطابق مع التعليمات البرمجية المتاحة للعامة. وفي أغسطس الماضي، جيثب ظهرت لأول مرة ميزة جديدة للإشارة إلى التعليمات البرمجية (لا يزال في مرحلة تجريبية)، والذي يسمح للمطورين بمتابعة مسارات التنقل ومعرفة مصدر مقتطف التعليمات البرمجية المقترح – وباستخدام هذه المعلومات، يمكنهم متابعة نص القانون فيما يتعلق بالتراخيص تلبية المتطلبات والإسناد، وحتى استخدام المكتبة بأكملها التي تم الحصول على مقتطف الشفرة منها.
ولكن من الصعب تقييم حجم المشكلة التي أعرب المطورون عن مخاوفهم بشأنها – فقد صرح GitHub سابقًا أن ميزة الكشف عن التكرارات ستؤدي إلى تشغيل “أقل من 1٪” من الوقت عند تفعيلها. وحتى في هذه الحالة، عادةً ما يكون هناك ملف شبه فارغ مع القليل من السياق المحلي للتشغيل به – لذلك في هذه الحالات، من المرجح تقديم اقتراح يطابق التعليمات البرمجية المكتوبة في مكان آخر.
“هناك الكثير من الآراء هناك – هناك أكثر من 100 مليون مطور قال ماكينلي: “على منصتنا”. “وهناك الكثير من الآراء بين جميع المطورين، فيما يتعلق بما يثير قلقهم. لذلك نحن نحاول الرد على التعليقات المقدمة إلى المجتمع، واتخاذ الإجراءات بشكل استباقي التي نعتقد أنها تساعد في جعل Copilot منتجًا رائعًا وتجربة رائعة للمطورين.
ماذا بعد؟
إن التقدم في قانون الذكاء الاصطناعي للاتحاد الأوروبي هو مجرد البداية – ونحن نعلم الآن أنه يحدث بالتأكيد، وبأي شكل. ولكن سيستغرق الأمر عامين آخرين على الأقل قبل أن تضطر الشركات إلى الالتزام بها – على غرار الطريقة التي كان يتعين على الشركات الاستعداد لها اللائحة العامة لحماية البيانات في مجال خصوصية البيانات.
“أظن [technical] قال ماكينلي: “ستلعب المعايير دورًا كبيرًا في كل هذا”. “نحن بحاجة إلى التفكير في كيفية الحصول على معايير منسقة يمكن للشركات الالتزام بها بعد ذلك. باستخدام القانون العام لحماية البيانات (GDPR) كمثال، هناك جميع أنواع معايير الخصوصية المختلفة التي صممها الأشخاص لمواءمة ذلك. ونحن نعلم أنه مع بدء تنفيذ قانون الذكاء الاصطناعي، ستكون هناك مصالح مختلفة، وكلها تحاول معرفة كيفية تنفيذه. لذلك نريد التأكد من أننا نعطي صوتًا للمطورين ومطوري المصادر المفتوحة في تلك المناقشات.
علاوة على ذلك، هناك المزيد من اللوائح في الأفق. الرئيس بايدن مؤخرا أصدر أمرا تنفيذيا بهدف وضع معايير حول سلامة وأمن الذكاء الاصطناعي، وهو ما يعطي لمحة عن الكيفية التي قد تختلف بها أوروبا والولايات المتحدة في نهاية المطاف عندما يتعلق الأمر بالتنظيم – حتى لو كانتا تشتركان في نهج “قائم على المخاطر” مماثل.
وقال ماكينلي: “أود أن أقول إن قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي يمثل قاعدة للحقوق الأساسية، كما هو متوقع في أوروبا”. “والجانب الأمريكي شديد الاهتمام بالأمن السيبراني والتزييف العميق – هذا النوع من العدسات. ولكن من نواحٍ عديدة، يجتمعون معًا للتركيز على السيناريوهات المحفوفة بالمخاطر – وأعتقد أن اتباع نهج قائم على المخاطر هو أمر نؤيده – إنها الطريقة الصحيحة للتفكير في الأمر”.