- وقع 13 شخصًا، من بينهم موظفون سابقون في كبرى شركات الذكاء الاصطناعي مثل OpenAI وDeepMind، على رسالة مفتوحة، يحذرون فيها من مخاطر الذكاء الاصطناعي.
- كما دعوا الشركات لعدم الشفافية بما فيه الكفاية، وقالوا إنها يجب أن تزرع ثقافة تشجع الموظفين على التعبير عن مخاوفهم بشأن الذكاء الاصطناعي دون خوف من التداعيات.
- ردت OpenAI على هذه الرسالة بالقول إنها اتخذت بالفعل خطوات للتخفيف من مخاطر الذكاء الاصطناعي ولديها أيضًا خط ساخن مجهول للعاملين لمشاركة مخاوفهم.
وقع موظفون سابقون في كبرى شركات وادي السيليكون، مثل OpenAI، وDeepMind من Google، وAnthropic، على رسالة مفتوحة، أرسلوا فيها تحذيرًا صارخًا بشأن مخاطر الذكاء الاصطناعي وكيف يمكن أن يؤدي إلى انقراض الإنسان.
تم توقيع الرسالة من قبل 13 موظفًا. نيل ناندا من DeepMind هو الوحيد بينهم الذي لا يزال يعمل في إحدى شركات الذكاء الاصطناعي التي كتبوا ضدها.
ولتوضيح موقفه من هذه القضية، طرح نيل أيضًا أ مشاركة على X حيث قال إنه يريد فقط من الشركات أن تضمن أنه إذا كان هناك قلق بشأن مشروع معين للذكاء الاصطناعي، فسيكون الموظفون قادرين على التحذير منه دون تداعيات، أي حرية الإبلاغ عن المخالفات.
وأضاف أيضًا أنه لا يوجد تهديد فوري يريد التحذير منه، وذلك الرسالة هي مجرد خطوة احترازية للمستقبل. الآن، بقدر ما أود تصديق نيل في هذا، فإن محتوى الرسالة يرسم صورة مختلفة.
ماذا تقول “رسالة التحذير”؟
تعترف الرسالة بالفوائد التي يمكن أن يقدمها تقدم الذكاء الاصطناعي للمجتمع، ولكنها تعترف أيضًا بالجوانب السلبية العديدة التي يصاحبها.
وقد تم تسليط الضوء على المخاطر التالية:
- انتشار المعلومات الخاطئة
- التلاعب بالجماهير
- زيادة عدم المساواة في المجتمع
- قد يؤدي فقدان السيطرة على الذكاء الاصطناعي إلى انقراض الإنسان
باختصار، كل ما نراه في فيلم خيال علمي مروع (مثل Arrival وBlade Runner 2049) يمكن أن يصبح واقعًا.
وجادلت الرسالة أيضًا بأن ولا تقوم شركات الذكاء الاصطناعي بما يكفي للتخفيف من هذه المخاطر. ومن الواضح أن لديهم ما يكفي من “الحوافز المالية” للتركيز بشكل أكبر على الإبداع وتجاهل المخاطر في الوقت الحالي. مثير للقلق، على أقل تقدير.
وأضاف ذلك أيضا تحتاج شركات الذكاء الاصطناعي إلى تعزيز بيئة عمل أكثر شفافية، حيث ينبغي تشجيع الموظفين على التعبير عن مخاوفهم بدلاً من معاقبتهم على ذلك.
يشير هذا إلى الجدل الأخير في OpenAI، حيث أُجبر الموظفون على الاختيار بين خسارة أسهمهم المكتسبة أو التوقيع على اتفاقية عدم الاستخفاف التي ستكون ملزمة لهم إلى الأبد.
تراجعت الشركة لاحقًا عن هذه الخطوة، قائلة إنها تتعارض مع ثقافتها وما تمثله الشركة، لكن الضرر قد حدث بالفعل.
ومن بين جميع الشركات المذكورة في الرسالة، تبرز شركة OpenAI بالتأكيد، وذلك بسبب سلسلة الفضائح التي تعرضت لها في الآونة الأخيرة.
على سبيل المثال، في شهر مايو من هذا العام، OpenAI قام بحل الفريق الذي كان مسؤولاً عن البحث في المخاطر طويلة المدى للذكاء الاصطناعي بعد أقل من عام من تشكيلها.
ومع ذلك، فمن الجدير بالذكر أن الشركة قامت بالفعل بتشكيل لجنة السلامة والأمن الجديدة الأسبوع الماضي. وسيرأسها الرئيس التنفيذي سام التمان.
كما غادر العديد من المديرين التنفيذيين رفيعي المستوى شركة OpenAI مؤخرًا، بما في ذلك المؤسس المشارك ايليا سوتسكيفر. بينما تم التخلي عن البعض بنعمة وشفاه مغلقة، كشف آخرون مثل جان ليك عن ذلك لقد انحرفت OpenAI عن أهدافها الأصلية ولم تعد تعطي الأولوية للسلامة.
رد OpenAI على هذه الرسالة
وفي معرض حديثه عن الرسالة المذكورة أعلاه، قال متحدث باسم OpenAI ذلك تتفهم الشركة المخاوف المحيطة بالذكاء الاصطناعي وتؤمن إيمانا راسخا بأن إجراء نقاش صحي حول هذه المسألة أمر بالغ الأهمية.
علاوة على ذلك، قالوا إن OpenAI ستواصل العمل مع الحكومة وخبراء الصناعة والمجتمعات حول العالم لتطوير الذكاء الاصطناعي بشكل آمن ومستدام.
“نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر.” – أوبن آي
تمت الإشارة أيضًا إلى أن أي لوائح جديدة تم فرضها للتحكم في صناعة الذكاء الاصطناعي كانت دائمًا مدعومة من OpenAI.
في الآونة الأخيرة، عطل OpenAI 5 عمليات سرية المدعومة من الصين وإيران وإسرائيل وروسيا التي كانت تحاول إساءة استخدام المحتوى الناتج عن الذكاء الاصطناعي وتصحيح أخطاء مواقع الويب والروبوتات لنشر دعايتها الخبيثة.
وفي معرض حديثه عن منح الموظفين الحرية في التعبير عن مخاوفهم، أبرزت OpenAI أن لديها بالفعل خطًا ساخنًا مجهولاً للعاملين لديها لهذا السبب بالتحديد، أي أنه يمكن لأي شخص الإبلاغ عن مخاوفه بشأن تعاملات الشركة دون الكشف عن هويته.
في حين أن هذا الرد من OpenAI قد يبدو مطمئنًا للبعض، إلا أن دانييل زيجلر، الموظف السابق في OpenAI الذي نظم الرسالة، قال إنه لا يزال من المهم أن تظل متشككا.
على الرغم مما تقوله الشركة عن اتخاذ خطوات موجهة للسلامة، نحن لا نعرف تمامًا ما يحدث بالفعل. ربما يكون هذا هو الجزء الأكثر إثارة للخوف، وهو أننا ربما لن ندرك أبدًا وجود خطأ كبير في تطوير الذكاء الاصطناعي إلا بعد فوات الأوان.
على سبيل المثال، على الرغم من أن جميع الشركات المذكورة أعلاه لديها سياسات ضد استخدام الذكاء الاصطناعي لإنشاء معلومات مضللة متعلقة بالانتخابات، هناك أدلة على أن أدوات إنشاء الصور الخاصة بـ OpenAI قد تم استخدامها لإنشاء محتوى مضلل.
عملية التحرير لدينا
تقرير التقنية السياسة التحريرية يتمحور حول توفير محتوى مفيد ودقيق يقدم قيمة حقيقية لقرائنا. نحن نعمل فقط مع الكتاب ذوي الخبرة الذين لديهم معرفة محددة في المواضيع التي يغطونها، بما في ذلك أحدث التطورات في التكنولوجيا، والخصوصية عبر الإنترنت، والعملات المشفرة، والبرمجيات، وأكثر من ذلك. تضمن سياستنا التحريرية أن يتم بحث كل موضوع وتنظيمه من قبل المحررين الداخليين لدينا. نحن نحافظ على معايير صحفية صارمة، وكل مقال مكتوب بنسبة 100% المؤلفين الحقيقيين.