تعليق قرر مشروع دبيان عدم الانضمام إلى Gentoo Linux وNetBSD في رفض كود البرنامج الذي تم إنشاؤه بمساعدة أدوات LLM، مثل Github’s Copilot.
كان أول مشروع FOSS OS لحظر التعليمات البرمجية التي تم إنشاؤها بواسطة روبوتات LLM هو Gentoo، الذي أصدر ملف سياسة المجلس تمنع تم إنشاء الكود باستخدام أدوات “الذكاء الاصطناعي” في منتصف أبريل. قام مشروع NetBSD هذا الأسبوع بتحديث بياناته الالتزام بالمبادئ التوجيهية مع مرسوم مماثل.
تحدد سياسة Gentoo ثلاث نقاط دفعت إلى اتخاذ القرار: حقوق الطبع والنشر، والجودة، والمخاوف الأخلاقية. من بين الثلاثة، الأوسط هو الأسهل للفهم. تكاد تكون جودة التعليمات البرمجية واضحة بذاتها: غالبًا ما تنتج هذه الأدوات تعليمات برمجية ذات جودة رديئة للغاية. أولاً، لا يوجد مشروع يريد تضمين تعليمات برمجية سيئة. ثانياً، لا أحد يريد حقاً مساهمات من المبرمجين غير القادرين على تحديد التعليمات البرمجية ذات الجودة الرديئة، أو غير القادرين على الكتابة بشكل أفضل بأنفسهم – أو على الأقل تحسين جهود الروبوت. على هذا النحو، هذا هو الأقل سبب مهم.
والاثنان الآخران أكثر صعوبة، ولكن يكمن وراءهما الأساس لقرار مشروع NetBSD. لفهم أهمية هذه المعايير، من الضروري أن نفهم ما يسمى بـ “مساعدي الذكاء الاصطناعي” وكيف يعملون – وهذا هو السبب أيضًا في أن ريج يضع مكتب البرمجيات الحرة والمفتوحة المصدر “AI” بين علامتي اقتباس. “مساعدو الذكاء الاصطناعي” و”الذكاء الاصطناعي التوليدي” بشكل عام ليسوا أذكياء. الفكرة هنا هي أن الصناعة نفسها اخترعت مصطلحًا جديدًا لمحاولاتها في مجال الذكاء الحاسوبي: في السنوات الأخيرة، أصبحت الشركات التي تقف وراء ماجستير إدارة الأعمال الآن مصطلح ذلك الذكاء الاصطناعي العام، أو اصطناعية عام ذكاء.
LLM تعني نموذج لغة كبير وتعمل هذه الأدوات من خلال بناء نماذج إحصائية لأقصى حد “مجموعات” كبيرة من النص: مجموعات ضخمة من النص (والصور، للأدوات الرسومية). تقوم الأدوات تلقائيًا ببناء نماذج ضخمة لا يمكن تصورها للكلمات التي تظهر بها الكلمات الأخرى، ومدى قربها منها، وبأي تسلسل وبأي تبديل. بالنظر إلى وجود أمثلة كافية في نص كافٍ، بالإضافة إلى مثال على المخرجات المطلوبة، يمكن لنوع من الخوارزمية يسمى “المحول” استخدام هذا النموذج لإنشاء المزيد من النص. ال الأوقات المالية لديه شرح مجاني ممتاز حول كيف يعمل المحول.
والنتيجة هي نموذج إحصائي يمكنه استقراء أنماط الكلمات. إنها فكرة ذكية جدًا تعمل على توسيع وظيفة التنبؤ التلقائي للوحات المفاتيح التي تظهر على الشاشة: وهي لا تتنبأ فقط بالكلمة التالية التي ستظهر على الجهاز اللوحي، بل يمكنها أيضًا إنشاء جمل وفقرات كاملة. ولهذا السبب يطلق عليه “التوليدي”: فهو يولد النص، وفقًا للأنماط الموجودة في نموذجه، والتي تم حسابها من النص الموجود في المجموعة التي تم تغذيتها في النموذج.
اتضح أنه إذا كان بإمكانك شراء مركز بيانات كامل يضم عشرات الآلاف من الخوادم المملوءة بوحدات معالجة الرسومات الخاملة القابلة للبرمجة والقادرة على تكرار العمليات الحسابية البسيطة سريع جدا، ولديك سعة التخزين وعرض النطاق الترددي لتغذية مزرعة الخوادم هذه بعدة آلاف من الجيجابايت من النص، ويمكن لهذه النماذج استقراء المواد ذات المظهر المعقول للغاية.
لكنك تحتاج إلى كمية هائلة من المواد بشكل لا يمكن تصوره. لذلك، تحتوي “مجموعة” المدخلات على أكبر قدر من النص يمكن للفرق التي تقوم بإنشاء النماذج الحصول عليه مجانًا أو بسعر رخيص. غالبًا ما تحتوي الإدخالات على ويكيبيديا بأكملها، وكل مشروع جوتنبرج، ومحتويات الشبكات الاجتماعية والمنتديات عبر الإنترنت… مثل مسابك الكود المصدري.
(وهذا هو، بالمناسبة، السبب الذي يجعل الشبكات الاجتماعية، ومقدمي البرامج كخدمة الآخرين على شبكة الإنترنت، ومقدمي الخدمات السحابية بشكل عام، يجدون أنفسهم الآن في حالة ثراء: فطبيعة أعمالهم تعني أنهم يجلسون على كنوز من الموارد البشرية الخالصة. – بيانات تدريب LLM التي تم إنشاؤها – والتي فجأة بشكل كبير قيّم.)
عملت النماذج الأصلية بشكل جيد، لكن حثها على إصدار نص مفيد كان أمرًا صعبًا. وكانت الخطوة الكبيرة التالية من ذلك هي استخدام روبوت الدردشة لتحفيز المحول، بحيث يمكن للاستعلامات البسيطة باللغة الطبيعية أن تولد إجابات مفيدة. واجهات اللغة الطبيعية ليست بالأمر الجديد: في بداية الثمانينات، كانت ألعاب المغامرات النصية التي تقدمها شركة Infocom تتميز بألعاب ممتازة، استنادًا إلى لعبة زورك المبدعة. في وقت لاحق، العمل من SRI الدولية، والتي كان موجودا بالفعل قبل وقت طويل من إطلاق تطبيق Siri من شركة Apple، أدى ذلك إلى ظهور قاعدة بيانات الأسئلة والأجوبة لـ MS-DOS – الذي من أجله تأسست شركة Symantec (“الدلالية”، geddit؟!).
إذا كان هناك نص في المجموعة التي تم تدريب النموذج عليها يتطابق بشكل وثيق مع استعلام الإدخال، فيمكن لـ LLM إنشاء إجابات جيدة ومتماسكة. هناك الكثير من البرامج التعليمية حول البرامج المعقدة، والتي وجدت طريقها إلى فهارس روبوتات LLM. هذه حقًا حالة استخدام رائعة لهذه الأدوات: برامج تعليمية مخصصة وإرشادات حول كيفية استخدام البرامج المعقدة مثل Git.
لكن هذا لا يعني أن الروبوت نفسه يفهم Git. لا يحدث ذلك: يمكنه فقط إنشاء نص يناسب نمط النص في الكثير من دروس Git. لا تستطيع روبوتات LLM التفكير، أو التفكير، أو التهجئة، أو حتى العد – ولكن إذا كان هناك نص في مدخلاتها يشبه الإجابات التي تريدها، فيمكنها القيام بانتحال جيد للغاية للتفكير وحل المشكلات.
أي أداة يتم تسويقها على أنها “ذكاء اصطناعي” ليس ذكيا – لأنه يتم الآن استدعاء الذكاء الحقيقي الذكاء الاصطناعي العام، ولا يستطيع أحد أن يفعل ذلك بعد. بدلاً من ذلك، تعد أدوات LLM واحدة من عدة أشكال التعلم الاليمما يعني أن البشر يكتبون برامج للعثور على أنماط في الكثير من مواد الإدخال. يهدف الكثير من التعلم الآلي إلى إنشاء برنامج يمكنه التعرف على الأنماط الجديدة غير المألوفة التي لم يسبق له مثيل والتي تشبه الأنماط التي رآها. في السنوات القليلة الماضية فقط، انفجرت أعمال جديدة: النصوص المرتجلة (أو الرسومات، أو الأصوات) التي تحتوي على الأنماط التي تم تدريب الروبوتات عليها.
ليست روبوتات LLM ليست ذكية فحسب، بل إنها ليست مصطنعة أيضًا. كلمة “اصطناعي” تعني صنع الإنسان ليشبه الأمثلة الموجودة في الطبيعة؛ إنها من نفس مسار “الفن” و”الماكر” و”الحيلة” و”المصنّع”. في حالة LLMs، يتم بناء النماذج بواسطة خوارزميات المحولات، وليس من قبل البشر. كانت الحيلة هي بناء الخوارزمية، وليس غيغابايت من الإحصائيات التي أنشأتها. على سبيل المقارنة، حتى لو تعلمت كيفية عمل الطابعات ثلاثية الأبعاد، وقمت بتصميم واحدة، واشتريت جميع المكونات وقمت ببنائها بنفسك، فإن الأشكال البلاستيكية التي تنتجها ليست مصنوعة يدويًا. يكتب الأشخاص المهرة والماهرون خوارزميات المحولات، التي تستخرج الأنماط من كميات هائلة من المواد المصدرية المكتوبة بواسطة الإنسان ثم تقلدها. إن هذا التقليد ليس خدعة: فالفن هو في الكتابة الأداة التي يمكن أن تتعلم تقليد بياناتها المدخلة.
“ليس ذكيًا” + “ليس اصطناعيًا”=ليس ذكاءً اصطناعيًا. QED.
ولهذا السبب بدأت روبوتات LLM في الحصول على بعض الألقاب الرائعة. نحن نحب بشكل خاص “الببغاوات العشوائية” – وبعبارة أخرى، فهي تشبه الببغاوات بياناتها المدخلة، ولكن يتم إعادة ترتيبها بشكل عشوائي. كاختصار، نحب أيضًا “نظام تجميع المعلومات المسروقة”. (نشعر أن “المعلومات الاصطناعية” مصطلح مثير للاهتمام بشكل خاص: فهي تبدو وكأنها معلومات، ولكنها ليست كذلك في الواقع). ملاحظة بواسطة cURL
المؤلف دانييل ستيرنبرغ:
وكما أشار هذا النسر في نهاية العام الماضي، فقد فعلنا ذلك بالفعل الغرق في الكود وهي مكتوبة بخط اليد بالكامل، من قبل عشرات الآلاف من الأشخاص الذين يعملون معًا عبر الإنترنت لعقود من الزمن. قاعدة التعليمات البرمجية لأي نظام تشغيل حديث للأغراض العامة بعيدة بالفعل، بعيد كبيرة جدًا بحيث لا يستطيع أي إنسان قراءتها واستيعابها وتعديلها ككل. ل اقتبس مشروع دبيان:
هذا حول 116 جيجابايت من الكود. سيكون مناسبًا لمفتاح USB بقيمة 13 دولارًا (10 جنيهات إسترلينية).
إن النماذج اللغوية الكبيرة هي بطبيعتها أكبر من ذلك بكثير، وهي كذلك بالفعل لا رمز يمكن قراءته بواسطة الإنسان. إنها جداول ضخمة تحتوي على مليارات أو تريليونات من القيم الرقمية، والتي يتم حسابها بواسطة أعداد هائلة من الآلات. ولا يمكن التحقق منها أو التحقق منها أو تعديلها: فسوف يستغرق الأمر مدناً مليئة بالأشخاص الذين يعملون لآلاف السنين لقراءتها، ناهيك عن فهمها وتعديلها.
إن استقراء النص أو الصور، على غرار المدخلات التي أنشأها الإنسان، هو كيفية عمل LLMs. الجميع من مخرجاتهم هلوسة. نظرًا لعدم وجود أي إنسان قام بتصميم النماذج أو يمكنه فحص النماذج، فمن غير الممكن تعديلها بحيث لا ينبعث منها نص غير واقعي. روبوتات LLM الوحيدة التي تنتج مخرجات مثيرة للاهتمام ومفيدة هي الكبيرة حقًا: يمكن للروبوتات الصغيرة فقط العثور على أنماط بسيطة ونسخها، لذلك لا يمكنها إنتاج مخرجات مثيرة للاهتمام.
(تمثلت شكوك هذا الجشع الساخر في أن النماذج الكبيرة جدًا لم تصبح مجدية إلا بعد أن أدركت الصناعة أن سلاسل الكتل مسرفة للغاية، وبطيئة للغاية، ولن تسهل أبدًا أي عمل تجاري عبر الإنترنت باستثناء الجريمة. ماذا يمكنك أن تفعل مع مزارع الخوادم الخاملة الجديدة هذه؟ تشغيل المحول نماذج عليها!)
إذا كان شخص ما يكتب رمز برنامج في محرر عبر الإنترنت – على سبيل المثال، إذا كان هذا المحرر عبارة عن تطبيق Electron يتكون من Javascript والذي يعمل بالفعل في محرك متصفح – فيمكن للمحرر تغذية هذا الرمز في روبوت LLM كما تكتبه… مما يؤدي إلى أصل جميع أدوات الإكمال التلقائي: أداة يمكنها، بسرعة، مطابقة أنماط التعليمات البرمجية التي تكتبها مع بعض من ملايين الأنماط الموجودة في مجموعتها، واستقراء التعليمات البرمجية المخصصة بشكل فردي على الفور والتي تكون قريبة بدرجة كافية مما أنت تكتب لتكون قابلة للاستخدام مباشرة.
المشكلة في ذلك هي أنه إذا كان الكود الخاص بك قريبًا بدرجة كافية من بعض بيانات التدريب، فسيقوم الروبوت بإصدار كود مطابق. من حيث المبدأ، لا ينبغي أن تكون المخرجات مطابقة تمامًا للتعليمات البرمجية الأصلية في مجموعة الإدخال، ولكن قد لا يمكن تمييزها – على سبيل المثال، تعليمات برمجية متطابقة بأسماء متغيرات مختلفة. الحصول على روبوتات LLM الكشف عن بيانات التدريب الخاصة بهم [PDF] هي تقنية راسخة الآن. إنه حتى لعبة فعلية.
بالنسبة لمشروع برمجي مفتوح المصدر، يعني ذلك أنه إذا كانت بيانات التدريب تحتوي، على سبيل المثال، على كود C للوظيفة المشتركة في العديد من أنظمة التشغيل، فإن مساعدي البرمجة الذين يدعمون LLM سيقومون بإنشاء كود مشابه جدًا للكود الموجود في مجموعتهم . إذا كان الرمز قريبًا بما يكفي ليتمكن المبرمج الماهر من التعرف عليه – وهو ما يعني إلى حد ما لا نوع المبرمج الذي يستخدم مثل هذه الأدوات التي تدعم LLM – فهناك خطر انتهاك الترخيص. يمكن دمج الكود الذي التقطه الروبوت من مشروع مختلف في مشاريع أخرى، على الرغم من عدم قيام أي إنسان بنسخ أي شيء عن قصد.
وهذا هو جوهر حقوق النشر والمخاوف الأخلاقية التي حددتها Gentoo. إذا كان الكود الذي يقدمه “مساعدو” LLM يمكن تتبعه إلى مشاريع أخرى، فإن ذلك من شأنه أن يفتح توزيعة Linux لمشاكل الملكية. إذا تم نسخ كود يحتوي على ثغرات أمنية عن غير قصد، فمن المسؤول؟ المبرمج الذي ساهم بالكود – حتى لو لم يكتبه بنفسه؟ المؤلف الأصلي، الذي لم يساهم مطلقًا بهذا الرمز أو حتى عرف أن الروبوت كان يردده ببغاء؟
بالنسبة لـ NetBSD، ينطبق كل هذا وأكثر، بسبب مشكلات الترخيص. في حين يتم استخدام عمليات تزوير التعليمات البرمجية عبر الإنترنت بشكل كبير من قبل مطوري Linux، مما يعني أنها مليئة بكود GPL، فإن NetBSD هو لا GPL: إنها مرخصة من BSD. يعد دمج كود GPL عن طريق الخطأ في قاعدة تعليمات BSD مشكلة: فهذا يعني إما إعادة ترخيص الكود الموجود، أو استبداله بالكامل – ولا يملكون القوة البشرية للقيام بأي منهما.
إذا كنت تعتبر أن هذه ليست مخاطر كبيرة، فإننا نشير إلى أن Microsoft، مالك Github، لا تقوم بإدخال أي من التعليمات البرمجية المصدر لأنظمة تشغيل خاصة بها في مجموعات تدريب LLM الخاصة بها.
تعد روبوتات LLM نوعًا جديدًا رائعًا من الأدوات، وهي ليست ألعابًا عديمة الفائدة على الإطلاق – على الرغم من أنها، وفقًا لتقاليد التطورات الأخيرة في مجال تكنولوجيا المعلومات، تهدر بشكل كبير وتستهلك كميات هائلة من الطاقة الحاسوبية والكهرباء والتبريد. مثل كل جهود البلوكتشين التي سبقتها، فهي كارثية بيئيًا. وهذا لن يختفي، وأي شخص يحاول أن يخبرك بأنه كذلك – على سبيل المثال، من خلال قيادة تطوير تكنولوجيا أكثر كفاءة – فهو يحاول أن يبيع لك شيئًا ما. LLMs يقودون بالفعل تطوير معالجات جديدة باستخدام circ وهي مخصصة لتشغيل نماذج LLM، مما يجعل المعالجات القديمة قديمة وبالتالي يلقي بها في مكب النفايات، وهو نوع مختلف من الكوارث البيئية.
إن الصياغة الإبداعية لمطالبات LLM bot هي في حد ذاتها شكل من أشكال البرمجة، والتي تتزايد أيضًا بسرعة من حيث الأهمية بالإضافة إلى المكافأة. (في السابق، اعتقدنا أن نقل جهود المبرمجين إلى اللغات المفسرة التي تعمل في محركات الكود الثانوي JIT كان غير فعال بشكل فاضح. وكم قللنا بشكل مؤسف من البراعة البشرية في إيجاد طرق جديدة لتبديد موارد الحوسبة على مستويات جديدة ملحمية.) المذكورة في وقت سابق من هذا الشهر، لا تشتكي مزارع الخوادم من المكان الذي تريد أن تعمل فيه، لذلك يقوم كل بائع بضخ الأموال في هذه المنطقة، على أمل القضاء على هؤلاء البشر المكلفين والصعبين.
- تحاول مبادرة المصدر المفتوح تعريف الذكاء الاصطناعي مفتوح المصدر
- عندما يساعدك الذكاء الاصطناعي على البرمجة، من يملك المنتج النهائي؟
- عزيزي سكان Stack Overflow، نشكرك على المساعدة في تدريب LLMs في OpenAI والتي تبلغ قيمتها مليار دولار
- إن جمود المملكة المتحدة بشأن ماجستير إدارة الأعمال وحقوق التأليف والنشر هو “تأييد فعلي”
ومن المهم أيضًا، ولكن نادرًا ما يُذكر، أن الذكاء الاصطناعي التوليدي لا يساعد تقريبًا في التعامل مع مواقف العالم الحقيقي. إن جناح البحر الأيرلندي في Vulture Towers خالٍ تمامًا من Amazon Alexa أو Google Assistant أو Apple Siri أو أي أنظمة أخرى مدفوعة الأجر لانتهاك الخصوصية، ولكن مع ذلك، فإن العديد من الأشخاص مغرمون لسبب غير مفهوم بالدفع للشركات العملاقة للاستماع إليها لتجنب الإجراءات الشاقة. العمل على تشغيل الأضواء أو تشغيل الموسيقى. لقد حقق الذكاء الاصطناعي التوليدي نجاحات قليلة هنا، لأنه بالنسبة للجميع تقريبًا، فإن الفهم الضعيف والمحدود أفضل بكثير من سوء الفهم الهلوسة والتخمينات المخترعة عشوائيًا. ولن يساعد ذلك في توجيه السيارات ذاتية القيادة أيضًا، إلا إذا أردنا فئات جديدة مبتكرة ومتوازية على نطاق واسع مشكلة العربة.
الشهر الماضي، لينكس ويكلي نيوز غطت مناقشات جنتو في العمق، ونحن نوصي بذلك إذا كنت تريد معرفة المزيد. في الآونة الأخيرة حدث ذلك فحص مداولات دبيان. سوف تنمو هذه المشكلة وتنمو، وربما بسرعة أكبر من قواعد بيانات التدريب نفسها. ®