الائتمان: VentureBeat مصنوع من Midjourney
انضم إلى النشرات الإخبارية اليومية والأسبوعية للحصول على أحدث التحديثات والمحتوى الحصري على تغطية الذكاء الاصطناعى الرائدة في الصناعة.”https://venturebeat.com/newsletters/?utm_source=VBsite&utm_medium=desktopNav” نوع البيانات=”link” معرف البيانات=”https://venturebeat.com/newsletters/?utm_source=VBsite&utm_medium=desktopNav”> تعرف على المزيد
جوجل قامت بإزالة حظرها الطويل الأمد ضد استخدام الذكاء الاصطناعي لأنظمة الأسلحة والمراقبة ، مما يمثل تحولًا كبيرًا في الموقف الأخلاقي للشركة بشأن تطوير الذكاء الاصطناعي الذي يقول الموظفون السابقون وخبراء الصناعة يمكنهم إعادة تشكيل كيف يقترب وادي السيليكون من سلامة الذكاء الاصطناعي.
التغيير ، الذي تم تنفيذه بهدوء هذا الأسبوع ، يلغي الأجزاء الرئيسية من”https://ai.google/responsibility/principles/”> مبادئ منظمة العفو الدولية من Google هذا منع الشركة بشكل صريح من تطوير الذكاء الاصطناعي للأسلحة أو المراقبة. هذه المبادئ ،”https://blog.google/technology/ai/ai-principles/”> أنشئ في عام 2018، كان بمثابة معيار في الصناعة لتطوير الذكاء الاصطناعي المسؤول.
“ذهب المعقل الأخير. قال تريسي بيتزو فراي ، الذي قضى خمس سنوات في تنفيذ Google ، إنه ليس من المحظور.”https://blog.google/technology/ai/ai-principles/”> مبادئ منظمة العفو الدولية الأصلية بصفته مديرًا كبيرًا لإدارة المنتجات الخارجية ، والمشاركات و AI المسؤولة في Google Cloud ، في أ”https://bsky.app/profile/tpf.bsky.social/post/3lhet6yjh2s2t”> بلوزكي بوست. “لقد وقفت Google وحدها في هذا المستوى من الوضوح حول التزاماتها بما يمكن أن تبنيه.”
ال”https://ai.google/responsibility/principles/”> المبادئ المنقحة قم بإزالة أربعة حظر محدد: التقنيات التي من المحتمل أن تتسبب في ضرر عام ، وتطبيقات الأسلحة ، وأنظمة المراقبة ، والتقنيات التي تنتهك القانون الدولي وحقوق الإنسان. بدلاً من ذلك ، تقول Google الآن إنها “ستخفف من نتائج غير مقصودة أو ضارة” وتتوافق مع “مبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع”.
جوجل يخفف من أخلاقيات الذكاء الاصطناعي: ماذا يعني هذا بالنسبة للتكنولوجيا العسكرية والمراقبة
يأتي هذا التحول في لحظة حساسة بشكل خاص ، حيث تتقدم قدرات الذكاء الاصطناعي بسرعة وتكثف المناقشات حول الدرابزين المناسبة للتكنولوجيا. أثار التوقيت أسئلة حول دوافع Google ، على الرغم من أن الشركة تحتفظ بهذه التغييرات كانت طويلة في التطوير.
وقال بيتزو فراي في مقابلة مع VentureBeat: “نحن في حالة لا توجد فيها ثقة كبيرة في التكنولوجيا الكبيرة ، وكل خطوة يبدو أنها تزيل الدرابزين تخلق المزيد من عدم الثقة”. وأكدت أن الحدود الأخلاقية الواضحة كانت حاسمة لبناء أنظمة الذكاء الاصطناعى الجديرة بالثقة خلال فترة ولايتها في Google.
ال”https://blog.google/technology/ai/ai-principles/”> المبادئ الأصلية ظهرت في عام 2018 وسط احتجاجات الموظفين”https://www.defense.gov/News/News-Stories/Article/Article/1254719/project-maven-to-deploy-computer-algorithms-to-war-zone-by-years-end/”> مشروع مافن، عقد البنتاغون الذي ينطوي على منظمة العفو الدولية لتحليل لقطات الطائرات بدون طيار. بينما رفضت Google في النهاية تجديد هذا العقد ، يمكن أن تشير التغييرات الجديدة إلى الانفتاح على شراكات عسكرية مماثلة.
تحافظ المراجعة على بعض عناصر الإطار الأخلاقي السابق من Google ولكنها تتحول إلى حظر تطبيقات محددة للتأكيد على إدارة المخاطر. يتماشى هذا النهج عن كثب مع معايير الصناعة مثل”https://www.nist.gov/itl/ai-risk-management-framework”> إطار إدارة المخاطر NIST AI، على الرغم من أن النقاد يجادلون بأنه يوفر قيودًا أقل ملموسًا على التطبيقات التي يحتمل أن تكون ضارة.
“حتى إذا لم يكن الدقة هو نفسه ، فإن الاعتبارات الأخلاقية ليست أقل أهمية لإنشاء الذكاء الاصطناعي الجيد” ، أشار بيتزو فراي ، مع تسليط الضوء على كيفية تحسين الاعتبارات الأخلاقية إلى فعالية منتجات الذكاء الاصطناعي وإمكانية الوصول إليها.
من مشروع Maven إلى تحول السياسة: الطريق إلى إصلاح أخلاقيات الذكاء الاصطناعي من Google
يقول مراقبو الصناعة إن هذا التغيير في السياسة يمكن أن يؤثر على كيفية تعامل شركات التكنولوجيا الأخرى مع أخلاقيات الذكاء الاصطناعي. جوجل”https://blog.google/technology/ai/ai-principles/”> المبادئ الأصلية وقد وضعت سابقة للتنظيم الذاتي للشركات في تطوير الذكاء الاصطناعي ، حيث تتطلع العديد من المؤسسات إلى Google للحصول على إرشادات حول تنفيذ AI المسؤول.
تعديل”https://ai.google/responsibility/principles/”> مبادئ منظمة العفو الدولية من Google يعكس التوترات الأوسع في صناعة التكنولوجيا بين الابتكار السريع والقيود الأخلاقية. مع تكثيف المنافسة في تنمية الذكاء الاصطناعي ، تواجه الشركات ضغوطًا لتحقيق التوازن بين التطوير المسؤول مع متطلبات السوق.
وقال بيتزو فراي: “أنا قلق بشأن مدى سرعة الوصول إلى هناك إلى العالم ، وإذا تمت إزالة المزيد والمزيد من الدرابزين” ، معربًا عن قلقه بشأن الضغط التنافسي لإطلاق منتجات الذكاء الاصطناعى بسرعة دون تقييم كافٍ للعواقب المحتملة.
المعضلة الأخلاقية لـ Big Tech: هل سيحدد تحول سياسة الذكاء الاصطناعي من Google معيارًا جديدًا للصناعة؟
تثير المراجعة أيضًا أسئلة حول عمليات صنع القرار الداخلية في Google وكيف يمكن للموظفين التنقل في الاعتبارات الأخلاقية دون حظر صريح. خلال وقتها في Google ، أنشأت Pizzo Frey عمليات مراجعة جمعت وجهات نظر متنوعة لتقييم الآثار المحتملة لتطبيقات AI.
بينما تحافظ Google على التزامها بتطوير AI المسؤول ، فإن إزالة الحظر المحدد يمثل خروجًا كبيرًا عن دورها القيادي السابق في إنشاء حدود أخلاقية واضحة لتطبيقات الذكاء الاصطناعي. مع استمرار التقدم الذكاء الاصطناعي ، تراقب الصناعة لمعرفة كيف يمكن أن يؤثر هذا التحول على المشهد الأوسع لتطوير وتنظيم الذكاء الاصطناعي.
الرؤى اليومية حول حالات استخدام الأعمال مع VB يوميا
إذا كنت ترغب في إقناع رئيسك في العمل ، فقد غطيت VB Daily. نمنحك السبق الصحفي الداخلي على ما تفعله الشركات مع الذكاء الاصطناعي التوليدي ، من التحولات التنظيمية إلى عمليات النشر العملية ، حتى تتمكن من مشاركة رؤى لأقصى عائد على الاستثمار.
اقرأ لدينا”http://venturebeat.com/terms-of-service/”> سياسة الخصوصية
شكرا على الاشتراك. تحقق أكثر”http://venturebeat.com/newsletters/”> النشرات الإخبارية VB هنا.
حدث خطأ.