من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.
  • اجتمعت شركات التكنولوجيا مثل Google وOpenAI وMicrosoft ووقعت اتفاقية تتعهد بتطوير الذكاء الاصطناعي بأمان.
  • وفي حال بدت التكنولوجيا التي كانوا يعملون عليها خطيرة للغاية، فإنهم مستعدون وقادرون على إيقاف المشاريع.
  • وقد التزمت 16 شركة بالفعل طوعًا بالاتفاقية، ومن المتوقع انضمام المزيد من الشركات قريبًا.

ال قمة سيول للذكاء الاصطناعي بدأت بنبرة عالية. عمالقة التقنية الرائدة مثل جوجل، ومايكروسوفت، وOpenAI وقعت اتفاقية تاريخية يوم الثلاثاء تهدف إلى تطوير تكنولوجيا الذكاء الاصطناعي بأمان. حتى أنهم وعدوا بسحب المشروعات التي لا يمكن تطويرها دون مخاطر.

“إنها الأولى من نوعها في العالم أن يكون هناك هذا العدد الكبير من شركات الذكاء الاصطناعي الرائدة من العديد من أنحاء العالم المختلفة التي توافق جميعها على نفس الالتزامات بشأن سلامة الذكاء الاصطناعي.” – ريشي سوناك، رئيس وزراء المملكة المتحدة

وأضاف رئيس الوزراء البريطاني أيضًا أنه بعد أن تم وضع هذه الاتفاقية موضع التنفيذ، فإنها ستضمن أن أكبر شركات الذكاء الاصطناعي في العالم أي أن أكبر المساهمين في تطورات الذكاء الاصطناعي سوف يفعلون ذلك الآن الحفاظ على مزيد من الشفافية والمساءلة.

ومن المهم أن نلاحظ أن هذه الاتفاقية ينطبق فقط على “النماذج الحدودية”،والذي يشير إلى التكنولوجيا التي تدعم أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT.

المزيد عن اتفاقية سيول لقمة الذكاء الاصطناعي

أحدث اتفاق هو متابعة للاتفاق الذي أبرمته الشركات المذكورة أعلاه في نوفمبر الماضي في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة في بلتشلي بارك، إنجلترا، حيث وعدوا بالتخفيف من المخاطر المرتبطة بالذكاء الاصطناعي قدر الإمكان. .

وقد قدمت 16 شركة بالفعل التزامًا طوعيًا بهذا الاتفاق، بما في ذلك أمازون و ميسترال منظمة العفو الدولية. ومن المتوقع أن تحذو حذوها المزيد من الشركات من دول مثل الصين والمملكة المتحدة وفرنسا وكوريا الجنوبية والإمارات العربية المتحدة والولايات المتحدة وكندا.

ستقوم الشركات التي لم تلتزم بالفعل بهذه الاتفاقيات بإنشاء إطار السلامة الخاص بها وتوضيح كيفية تخطيطها لمنع إساءة استخدام نماذج الذكاء الاصطناعي الخاصة بها من قبل الأوغاد.

سيكون لهذه الأطر أيضًا شيء يسمى “الخطوط الحمراء” التي تشير إلى مخاطر لا تطاق.

في حالة وجود مشكلة “خط أحمر” في النموذج (مثل النموذج الآلي هجوم المقهى أو تهديد محتمل باستخدام سلاح بيولوجي)، ستقوم الشركة المعنية بتنشيط مفتاح الإيقاف، مما يعني أن تطوير هذا النموذج المعين سيتوقف تمامًا.

الشركات لديها أيضا وافق على تلقي ردود الفعل على هذه الأطر من الجهات الفاعلة الموثوقة، مثل حكوماتهم الأصلية، قبل تحقيق الخطة الكاملة في قمة الذكاء الاصطناعي المقبلة المقرر عقدها في فرنسا في أوائل عام 2025.

هل OpenAI هي بالفعل شركة ذكاء اصطناعي للسلامة أولاً؟

تعد OpenAI، إحدى أكبر القوى الدافعة للذكاء الاصطناعي في العالم، أحد الموقعين المهمين على الاتفاقية المذكورة أعلاه. ومع ذلك، يشير التحول الأخير للأحداث في الشركة إلى أنها تتراجع الآن عندما يتعلق الأمر بسلامة الذكاء الاصطناعي.

الحالة الأولى: استخدام صوت الذكاء الاصطناعي غير المرخص

قبل بضعة أيام فقط، تعرضت OpenAI لانتقادات شديدة بعد أن اكتشف المستخدمون وجودها صوت “Sky” AI يشبه صوت سكارليت جوهانسون. يأتي ذلك بعد أن رفضت الممثلة رسميًا ترخيص صوتها لـ OpenAI.

الحالة الثانية: حل فريق سلامة الذكاء الاصطناعي

والأسوأ من ذلك أن OpenAI فعلت ذلك الآن حل فريق سلامة الذكاء الاصطناعي الخاص به، والتي تم تشكيلها في يوليو 2023 بهدف مواءمة الذكاء الاصطناعي مع المصالح الإنسانية. كان هذا الفريق مسؤولاً عن التأكد من أن أنظمة الذكاء الاصطناعي التي طورتها الشركة لا تتفوق على الذكاء البشري أو تتحدىه.

الحالة الثالثة: استقالة كبار المسؤولين

كبار المسؤولين في OpenAI، بما في ذلك المؤسس المشارك إيليا سوتسفكر والقائد المشارك لفريق Superalignment في جي بي تي-4o جان ليك استقال يوم الجمعة الماضي، ساعات فقط تفصل بين بعضها البعض.

في الواقع، وصف لايكي بالتفصيل الظروف المحيطة باستقالته. ومن المثير للاهتمام أنه كان على خلاف مع المبادئ الأساسية لمجلس إدارة OpenAI الحالي. وشدد أيضًا على مخاطر تطوير أنظمة ذكاء اصطناعي أقوى من العقل البشري، وأن OpenAI غير منزعجة من هذه المخاطر الأمنية.

كل هذه الأحداث تشير إلى شيء واحد: تقوم OpenAI بتطوير أنظمة لا تتوافق مع العديد من مهندسي ومستشاري السلامة. قد تكون هذه الأنظمة أقوى مما يستطيع الدماغ البشري استيعابه، وبالتالي تمتلك قدرات كارثية يجب تقليصها.

تزايد اللوائح حول الذكاء الاصطناعي

منذ أن اكتسب الذكاء الاصطناعي شعبية كبيرة، كانت الحكومات والمؤسسات في جميع أنحاء العالم تشعر بالقلق إزاء المخاطر المرتبطة به، ولهذا السبب رأينا عددًا من اللوائح التي يتم فرضها حول تطوير أنظمة الذكاء الاصطناعي واستخدامها.

  • قدمت الولايات المتحدة مؤخراً مشروع قانون حقوق الذكاء الاصطناعي يهدف إلى تطوير الذكاء الاصطناعي من خلال الحفاظ على العدالة والشفافية والخصوصية، وإعطاء الأولوية للبدائل البشرية.
  • قدم الاتحاد الأوروبي مجموعة جديدة من القواعد للذكاء الاصطناعي والتي تدخل حيز التنفيذ الشهر المقبل. ستكون هذه القواعد قابلة للتطبيق على كل من أنظمة الذكاء الاصطناعي عالية المخاطر والأغراض العامة، مع الاختلاف الوحيد هو أن القواعد ستكون أكثر تساهلاً قليلاً مع الأخيرة.
  • سيتعين على كل شركة تعمل في مجال الذكاء الاصطناعي الحفاظ على المزيد من الشفافية، وإذا فشلوا في تلبية الإرشادات، فسيتعين عليهم دفع غرامة يمكن أن تتراوح بين 7.5 مليون يورو أو 1.5% من مبيعاتهم السنوية إلى 35 مليون يورو أو 7% من مبيعاتهم العالمية، اعتمادًا على خطورة الانتهاك .
  • حسب اتفاق بين البلدين، ستتعاون معاهد سلامة الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة مع بعضها البعض بشأن تقييمات السلامة والأبحاث والإرشادات المتعلقة بسلامة الذكاء الاصطناعي.
  • الجمعية العامة للأمم المتحدة في مارس 2024 اعتمد قراراً بشأن الذكاء الاصطناعي تشجيع البلدان في جميع أنحاء العالم على حماية حقوق مواطنيها في مواجهة المخاوف المتزايدة بشأن الذكاء الاصطناعي. تم اقتراح الاتفاقية في البداية من قبل الولايات المتحدة ودعمتها أكثر من 120 دولة.

في الختام، على الرغم من أن إدراك الدول في جميع أنحاء العالم للمخاطر والمسؤوليات التي تأتي مع الذكاء الاصطناعي يعد خبرًا إيجابيًا بالتأكيد، إلا أنه من الأهمية بمكان تنفيذ هذه السياسات فعليًا والتأكد من اتباع اللوائح بشكل صارم.

عملية التحرير لدينا

تقرير التقنية السياسة التحريرية يتمحور حول توفير محتوى مفيد ودقيق يقدم قيمة حقيقية لقرائنا. نحن نعمل فقط مع الكتاب ذوي الخبرة الذين لديهم معرفة محددة في المواضيع التي يغطونها، بما في ذلك أحدث التطورات في التكنولوجيا، والخصوصية عبر الإنترنت، والعملات المشفرة، والبرمجيات، وأكثر من ذلك. تضمن سياستنا التحريرية أن يتم بحث كل موضوع وتنظيمه من قبل المحررين الداخليين لدينا. نحن نحافظ على معايير صحفية صارمة، وكل مقال مكتوب بنسبة 100% المؤلفين الحقيقيين.

اقرأ أكثر

قمة الذكاء الاصطناعي في سيول: 27 دولة والاتحاد الأوروبي يضعون خطوطًا حمراء بشأن مخاطر الذكاء الاصطناعي
يمكن أن تتسبب ملفات Bitbucket الاصطناعية في تسريب أسرار مصادقة النص العادي

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل