من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

يطالب المطلعون على OpenAI وDeepMind بحماية المبلغين عن المخالفات باستخدام الذكاء الاصطناعي مايك دالتون · منذ 2 ساعات · 2 دقيقة قراءة

يقول الموظفون السابقون والحاليون في كبرى شركات الذكاء الاصطناعي إن وسائل الحماية الحالية غير كافية.

2 دقيقة قراءة

محدث: 5 يونيو 2024 الساعة 10:45 صباحًا بالتوقيت العالمي المنسق

الغلاف الفني/الرسم التوضيحي عبر CryptoSlate. تتضمن الصورة محتوى مدمجًا قد يتضمن محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.

الأفراد الذين لديهم أدوار في الماضي والحاضر في OpenAI و جوجل دعت شركة DeepMind إلى حماية النقاد والمبلغين عن المخالفات 4 يونيو.

وحث مؤلفو رسالة مفتوحة شركات الذكاء الاصطناعي على عدم الدخول في اتفاقيات تمنع الانتقادات أو الانتقام من الانتقادات من خلال إعاقة الفوائد الاقتصادية.

علاوة على ذلك، ذكروا أن الشركات يجب أن تخلق ثقافة “النقد المفتوح” مع حماية الأسرار التجارية والملكية الفكرية.

طلب المؤلفون من الشركات إنشاء وسائل حماية للموظفين الحاليين والسابقين حيث فشلت عمليات الإبلاغ عن المخاطر الحالية. كتبوا:

“إن الحماية العادية للمبلغين عن المخالفات ليست كافية لأنها تركز على النشاط غير القانوني، في حين أن العديد من المخاطر التي نشعر بالقلق إزاءها لم يتم تنظيمها بعد.”

أخيرًا، قال المؤلفون إن شركات الذكاء الاصطناعي يجب أن تضع إجراءات للموظفين لإثارة المخاوف المتعلقة بالمخاطر دون الكشف عن هويتهم. وينبغي أن تسمح مثل هذه الإجراءات للأفراد بإثارة مخاوفهم إلى مجالس إدارة الشركات والجهات التنظيمية والمنظمات الخارجية على حد سواء.

المخاوف الشخصية

وصف مؤلفو الرسالة الثلاثة عشر أنفسهم بأنهم موظفون حاليون وسابقون في “شركات الذكاء الاصطناعي الحدودية”. تضم المجموعة 11 عضوًا سابقًا وحاليًا في OpenAI، بالإضافة إلى عضو سابق في Google DeepMind وعضو حالي في DeepMind، سابقًا في أنثروبي.

ووصفوا المخاوف الشخصية قائلين:

“البعض منا يخشى بشكل معقول أشكالا مختلفة من الانتقام، نظرا لتاريخ مثل هذه الحالات في جميع أنحاء الصناعة.”

سلط المؤلفون الضوء على مخاطر الذكاء الاصطناعي المختلفة، مثل عدم المساواة، والتلاعب، والمعلومات المضللة، وفقدان السيطرة على الذكاء الاصطناعي المستقل، واحتمال انقراض الإنسان.

وقالوا إن شركات الذكاء الاصطناعي، إلى جانب الحكومات والخبراء، اعترفت بالمخاطر. ومن المؤسف أن الشركات لديها “حوافز مالية قوية” لتجنب الرقابة، كما أنها لا تلتزم إلا بقدر ضئيل من تبادل المعلومات الخاصة حول قدرات أنظمتها طوعاً.

وبخلاف ذلك، أكد المؤلفون إيمانهم بفوائد الذكاء الاصطناعي.

خطاب في وقت سابق 2023

يأتي الطلب بعد رسالة مفتوحة في أبريل 2023 بعنوان “إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتًا”، والتي سلطت الضوء بالمثل على المخاطر المتعلقة بالذكاء الاصطناعي. حصلت الرسالة السابقة على توقيعات من قادة الصناعة مثل الرئيس التنفيذي لشركة Tesla ورئيس مجلس إدارة X ايلون ماسك والمؤسس المشارك لشركة أبل ستيف وزنياك.

وحثت رسالة عام 2023 الشركات على إيقاف تجارب الذكاء الاصطناعي مؤقتًا لمدة ستة أشهر حتى يتمكن صناع السياسات من إنشاء أطر قانونية وأطر السلامة وغيرها.

المذكورة في هذه المقالة
أحدث نحن قصص
أحدث ألفا تقرير السوق
أحدث البيانات الصحفية

اقرأ أكثر

يذهب! تستفيد SmartChain AI من Google Cloud لتحسين ترميز الأصول في العالم الحقيقي
قائمة شاملة لتسريح العمال في مجال التكنولوجيا لعام 2024

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل