أعلنت Google يوم الثلاثاء أنها تقوم بإصلاح المبادئ التي تحكم كيف تستخدم الذكاء الاصطناعي والتكنولوجيا المتقدمة الأخرى. قامت الشركة بإزالة اللغة التي تعد بعدم متابعة “التقنيات التي تسبب أو من المحتمل أن تسبب ضررًا بشكل عام” ، “الأسلحة أو التقنيات الأخرى التي تهدف غرضها أو تنفيذها الرئيسي إلى التسبب أو تسهيل إصابة الأشخاص” ، “التقنيات التي تجمع أو تستخدم المعلومات لصالحها مراقبة تنتهك المعايير المقبولة دوليًا “و” التقنيات التي يتعارض الغرض منها على مبادئ القانون الدولي وحقوق الإنسان “.
تم الكشف عن التغييرات في”https://blog.google/technology/ai/ai-principles/” حدث البيانات انقر فوق”{“element”:”ExternalLink”,”outgoingURL”:”https://blog.google/technology/ai/ai-principles/”}” HREF=”https://blog.google/technology/ai/ai-principles/” rel=”nofollow noopener” الهدف=”_blank”> ملاحظة ملزمة إلى قمة منشور مدونة 2018 يكشف عن الإرشادات. لقد قمنا بتحديثات لمبادئ الذكاء الاصطناعي لدينا. تفضل بزيارة Ai.Google لأحدث ، “تقول الملاحظة.
في”https://blog.google/technology/ai/responsible-ai-2024-report-ongoing-work/” حدث البيانات انقر فوق”{“element”:”ExternalLink”,”outgoingURL”:”https://blog.google/technology/ai/responsible-ai-2024-report-ongoing-work/”}” HREF=”https://blog.google/technology/ai/responsible-ai-2024-report-ongoing-work/” rel=”nofollow noopener” الهدف=”_blank”> منشور مدونة يوم الثلاثاء، استشهد زوجان من المديرين التنفيذيين من Google بالاستخدام على نطاق واسع بشكل متزايد للمنظمة العفوية ، والمعايير المتطورة ، والمعارك الجيوسياسية على الذكاء الاصطناعى باعتبارها “الخلفية” لسبب حاجة مبادئ Google إلى إصلاحها.
نشرت Google لأول مرة المبادئ في عام 2018 حيث انتقلت إلى قمع الاحتجاجات الداخلية بشأن قرار الشركة بالعمل على جيش أمريكي”https://www.wired.com/story/3-years-maven-uproar-google-warms-pentagon/”> برنامج الطائرات بدون طيار. ردا على ذلك ، رفضت”https://www.wired.com/story/google-wont-renew-controversial-pentagon-ai-project/”> تجديد عقد الحكومة وأعلن أيضا”https://www.wired.com/beyond-the-beyond/2018/06/googles-ai-principles/”> مجموعة من المبادئ لتوجيه الاستخدامات المستقبلية لتقنياتها المتقدمة ، مثل الذكاء الاصطناعي. من بين التدابير الأخرى ، فإن المبادئ التي ذكرت أن Google لن تقوم بتطوير أسلحة أو أنظمة مراقبة معينة أو تقنيات تقوض حقوق الإنسان.
لكن في إعلان يوم الثلاثاء ، تخلصت Google من تلك الالتزامات.”https://ai.google/responsibility/principles/” حدث البيانات انقر فوق”{“element”:”ExternalLink”,”outgoingURL”:”https://ai.google/responsibility/principles/”}” HREF=”https://ai.google/responsibility/principles/” rel=”nofollow noopener” الهدف=”_blank”> صفحة الويب الجديدة لم يعد يسرد مجموعة من الاستخدامات المحظورة لمبادرات Google AI. بدلاً من ذلك ، يوفر المستند المنقح Google مساحة أكبر لمتابعة حالات الاستخدام المحتملة. تنص على أن Google ستنفذ “الإشراف البشري المناسب ، والخداع الواجب ، وآليات التغذية المرتدة للتوافق مع أهداف المستخدم ، والمسؤولية الاجتماعية ، ومبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع.” تقول Google الآن إنها ستعمل على “تخفيف نتائج غير مقصودة أو ضارة”.
وكتب جيمس مانيكا ، نائب الرئيس الأول للبحوث والتكنولوجيا والمجتمع ، “نعتقد أن الديمقراطيات يجب أن تقود في تطوير الذكاء الاصطناعي ، مسترشدة بالقيم الأساسية مثل الحرية والمساواة واحترام حقوق الإنسان”. ، مختبر أبحاث الذكاء الاصطناعي المحترم للشركة. “ونحن نعتقد أن الشركات والحكومات والمنظمات التي تشارك هذه القيم يجب أن تعمل معًا لإنشاء الذكاء الاصطناعي الذي يحمي الناس ، ويعزز النمو العالمي ، ويدعم الأمن القومي.”
وأضافوا أن Google ستواصل التركيز على مشاريع الذكاء الاصطناعى “تتماشى مع مهمتنا ، وتركيزنا العلمي ، ومجالات خبرتنا ، والبقاء متسقة مع مبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع.”
عبر العديد من موظفي Google عن قلقهم بشأن التغييرات في المحادثات مع Wired. يقول بارول كول ، على الرغم من أن الشركة التي لا ينبغي أن تكون الشركة في مجال الحرب: “من المهم للغاية رؤية Google تنخفض التزامها بالاستخدام الأخلاقي لتكنولوجيا الذكاء الاصطناعي دون مدخلات من موظفيها أو الجمهور الأوسع ، على الرغم من مشاعر الموظفين القديم بأن الشركة لا ينبغي أن تكون في مجال الحرب”. مهندس برمجيات Google ورئيس لعمال Unsion Union-CWA.
هل لديك نصيحة؟
هل أنت موظف حالي أو سابق في Google؟ نود أن نسمع منك. باستخدام هاتف أو جهاز كمبيوتر غير عمل ، اتصل بـ Paresh Dave على Signal/WhatsApp/Telegram AT +1-415-565-1302 أو”http://www.wired.com/mailto:paresh_dave@wired.com”> paresh_dave@wired.com، أو كارولين هاسكينز على إشارة على +1 785-813-1084 أو في”http://www.wired.com/mailto:emailcarolinehaskins@gmail.com”> EmailCarolineHaskins@gmail.com
عودة الرئيس الأمريكي دونالد ترامب إلى منصبه في الشهر الماضي قد حفزت العديد من الشركات”https://www.wired.com/story/meta-2024-earnings-dei-trump/”> لمراجعة السياسات التي تعزز الأسهم والمثل الليبرالية الأخرى. يقول أليكس كراسوف المتحدث باسم Google إن التغييرات كانت في الأعمال لفترة أطول بكثير.
تسرد Google أهدافها الجديدة على أنها تتبع مبادرات منظمة العفو الدولية الجريئة والمسؤولة والتعاونية. لقد ولت عبارات مثل “كن مفيدًا اجتماعيًا” والحفاظ على “التميز العلمي”. تمت إضافة ذكر “الاحترام”https://www.wired.com/story/ai-copyright-case-tracker/”> حقوق الملكية الفكرية”
بعد الإصدار الأولي لمبادئ AI قبل حوالي سبع سنوات ، أنشأت Google فريقين مكلفين بمراجعة ما إذا كانت المشاريع في جميع أنحاء الشركة ترقى إلى مستوى الالتزامات. ركز أحدهم على عمليات Google الأساسية ، مثل البحث والإعلانات والمساعد والخرائط. ركز آخر على عروض Google Cloud ويصفقات مع العملاء. ركزت الوحدة على أعمال المستهلك في Google”https://www.wired.com/story/google-splits-up-responsible-innovation-ai-team/”> تم تقسيمه في أوائل العام الماضي عندما تسابق الشركة لتطوير chatbots وغيرها من أدوات الذكاء الاصطناعي للتنافس مع Openai.
Timnit Gebru ، كولد سابق لفريق أبحاث AI الأخلاقي من Google الذي كان”https://www.wired.com/story/google-timnit-gebru-ai-what-really-happened/”> تم إطلاق النار لاحقًا من هذا الموقف، يدعي أن التزام الشركة بالمبادئ كان دائمًا موضع تساؤل. وتقول: “أود أن أقول أنه من الأفضل عدم التظاهر بأن لديك أي من هذه المبادئ بدلاً من كتابتها والقيام بالعكس”.
يقول ثلاثة من موظفي Google السابقين الذين شاركوا في مراجعة المشاريع لضمان توافقهم مع مبادئ الشركة إن العمل كان يمثل تحديًا في بعض الأحيان بسبب التفسيرات المتغيرة للمبادئ والضغط من الأعلى إلى إعطاء الأولوية لضرورات الأعمال.
لا تزال Google لديها لغة حول منع الضرر في نظامها السحابي الرسمي المقبول”https://cloud.google.com/terms/aup”> استخدام السياسةوالتي تشمل العديد من المنتجات التي تحركها الذكاء الاصطناعي. تمنع هذه السياسة انتهاك “الحقوق القانونية للآخرين” والانخراط في النشاط غير القانوني أو تعزيزه ، مثل “الإرهاب أو العنف الذي يمكن أن يسبب الوفاة أو الأذى الخطير أو إصابة الأفراد أو مجموعات الأفراد”.
ومع ذلك ، عند الضغط على كيفية قيام هذه السياسة بالمربعة مع Project Nimbus – عقد حوسبة سحابية مع الحكومة الإسرائيلية ، التي استفادت من البلاد”https://www.wired.com/story/amazon-google-project-nimbus-israel-idf/”> عسكري – جوجل”https://www.wired.com/story/amazon-google-project-nimbus-israel-idf/”> قال أن الاتفاقية “لا يتم توجيهها إلى أعباء العمل الحساسة للغاية أو المصنفة أو العسكرية ذات الصلة بالأسلحة أو خدمات الاستخبارات.”
“عقد Nimbus مخصص لأعباء العمل التي تعمل على السحابة التجارية الخاصة بنا من قبل وزارات الحكومة الإسرائيلية ، والتي توافق على الامتثال لنا”https://cloud.google.com/terms”> شروط الخدمة و”https://cloud.google.com/terms/aup”> سياسة الاستخدام المقبولة، “جوجل المتحدثة باسم آنا كوالسزيك”https://www.wired.com/story/amazon-google-project-nimbus-israel-idf/”> أخبر Wired في يوليو.
جوجل سحابة”https://cloud.google.com/terms”> شروط الخدمة وبالمثل ، لا تمنع أي طلبات تنتهك القانون أو “تؤدي إلى الوفاة أو الأذى الجسدي الخطير للفرد”. تمنع قواعد بعض خدمات الذكاء الاصطناعى التي تركز على المستهلك من Google الاستخدامات غير القانونية وبعض الاستخدامات الضارة أو الهجومية.
تحديث 2/04/25 5:45 ET: تم تحديث هذه القصة لتضمين تعليق إضافي من موظف Google.