قامت مجموعة من الموظفين الحاليين والسابقين من شركات الذكاء الاصطناعي الرائدة مثل OpenAI وGoogle DeepMind وAnthropic بالتوقيع على اتفاقية رسالة مفتوحة المطالبة بمزيد من الشفافية والحماية من الانتقام لأولئك الذين يتحدثون علنًا عن المخاوف المحتملة للذكاء الاصطناعي. وجاء في الرسالة التي نُشرت يوم الثلاثاء: “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”. “ومع ذلك، فإن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، باستثناء الشركات ذاتها التي قد تفشل في معالجة هذه القضايا”.
تأتي الرسالة بعد أسبوعين فقط من أ فوكس تحقيق كشفت شركة OpenAI عن محاولة إسكات الموظفين المغادرين مؤخرًا من خلال إجبارهم على الاختيار بين التوقيع على اتفاقية عدم الاستخفاف الصارمة، أو المخاطرة بخسارة أسهمهم المكتسبة في الشركة. بعد التقرير، الرئيس التنفيذي لشركة OpenAI سام التمان قال أنه كان محرجًا حقًا” من هذا البند وادعى أنه تمت إزالته من وثائق الخروج الأخيرة، على الرغم من أنه من غير الواضح ما إذا كان لا يزال ساريًا بالنسبة لبعض الموظفين. بعد نشر هذه القصة، أخبر المتحدث باسم OpenAI موقع Engadget أن الشركة قد أزالت شرط عدم الاستخفاف من أوراق المغادرة القياسية وأطلق سراح جميع الموظفين السابقين من اتفاقيات عدم الاستخفاف الخاصة بهم.
ومن بين الموقعين الثلاثة عشر موظفون سابقون في OpenAI، جاكوب هينتون، وويليام سوندرز، ودانيال كوكوتاجلو. كوكوتاجلو قال أنه استقال من الشركة بعد أن فقد الثقة في أنها ستبني بشكل مسؤول الذكاء العام الاصطناعي، وهو مصطلح يشير إلى أنظمة الذكاء الاصطناعي التي تكون ذكية أو أكثر ذكاءً من البشر. تعرب الرسالة – التي أيدها خبراء الذكاء الاصطناعي البارزون جيفري هينتون ويوشوا بنجيو وستيوارت راسل – عن مخاوف بالغة بشأن الافتقار إلى الرقابة الحكومية الفعالة على الذكاء الاصطناعي والحوافز المالية التي تدفع عمالقة التكنولوجيا للاستثمار في التكنولوجيا. ويحذر المؤلفون من أن السعي دون رادع لأنظمة الذكاء الاصطناعي القوية يمكن أن يؤدي إلى انتشار المعلومات الخاطئة، وتفاقم عدم المساواة، وحتى فقدان السيطرة البشرية على الأنظمة المستقلة، مما قد يؤدي إلى انقراض الإنسان.
“هناك الكثير مما لا نفهمه حول كيفية عمل هذه الأنظمة وما إذا كانت ستظل متوافقة مع المصالح البشرية لأنها تصبح أكثر ذكاءً وربما تتجاوز مستوى الذكاء البشري في جميع المجالات”. كتب Kokotajlo على X. “في هذه الأثناء، هناك القليل من الرقابة على هذه التكنولوجيا. وبدلاً من ذلك، فإننا نعتمد على الشركات التي تعمل على بناء هذه الشركات بحيث تتمتع بالحكم الذاتي، حتى في حين تدفعها دوافع الربح والإثارة بشأن التكنولوجيا إلى “التحرك بسرعة وتحطيم الأشياء”. إن إسكات الباحثين وجعلهم خائفين من الانتقام أمر خطير في حين أننا حاليًا من الأشخاص الوحيدين الذين يمكنهم تحذير الجمهور.
وفي بيان تمت مشاركته مع Engadget، قال متحدث باسم OpenAI: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر. ونحن نتفق على أن النقاش الدقيق أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم. وأضافوا: “ولهذا السبب أيضًا لدينا طرق للموظفين للتعبير عن مخاوفهم بما في ذلك مجهولين الخط الساخن للنزاهة ولجنة السلامة والأمن بقيادة أعضاء مجلس الإدارة وقادة السلامة في الشركة.
لم تستجب Google وAnthropic لطلب التعليق من Engadget. في إفادة أرسلت إلى بلومبرج، قال متحدث باسم OpenAI إن الشركة فخورة “بسجلها الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أمانًا” وأنها تؤمن “بمنهجها العلمي في معالجة المخاطر”. وأضافت: “نحن متفقون على أن النقاش الدقيق أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم”.
ويدعو الموقعون شركات الذكاء الاصطناعي إلى الالتزام بأربعة مبادئ رئيسية:
-
الامتناع عن الانتقام من الموظفين الذين يعبرون عن مخاوف تتعلق بالسلامة
-
دعم نظام مجهول للمبلغين عن المخالفات لتنبيه الجمهور والمنظمين حول المخاطر
-
السماح بثقافة النقد المفتوح
-
وتجنب اتفاقيات عدم الذم أو عدم الإفصاح التي تقيد الموظفين من التحدث علناً
وتأتي الرسالة وسط تدقيق متزايد لممارسات OpenAI، بما في ذلك حل لفريق السلامة “superalignment” الخاص به و رحيل من الشخصيات الرئيسية مثل المؤسس المشارك إيليا سوتسكيفر وجان ليك، الذي انتقد إعطاء الأولوية للشركة “للمنتجات اللامعة” على السلامة.
تحديث، 05 يونيو 2024، الساعة 11:51 صباحًا بالتوقيت الشرقي: تم تحديث هذه القصة لتشمل بيانات من OpenAI.