من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

يتحدث توماس كوريان ، الرئيس التنفيذي لشركة Google Cloud ، في مؤتمر الحوسبة السحابية الذي عقدته الشركة في عام 2019.

مايكل شورت | بلومبرج | صور جيتي

لندن – جوجل قال رئيس قسم الحوسبة السحابية في الشركة لشبكة CNBC ، إنه يجري محادثات مبكرة مثمرة مع المنظمين في الاتحاد الأوروبي حول لوائح الذكاء الاصطناعي الرائدة في الاتحاد وكيف يمكن له والشركات الأخرى بناء الذكاء الاصطناعي بأمان ومسؤولية.

يعمل رائد البحث على الإنترنت على أدوات لمعالجة عدد من مخاوف الكتلة المحيطة بالذكاء الاصطناعي – بما في ذلك القلق الذي قد يصبح من الصعب التمييز بين المحتوى الذي تم إنشاؤه بواسطة البشر والمحتوى الذي تم إنتاجه بواسطة الذكاء الاصطناعي.

قال توماس كوريان في مقابلة ، متحدثًا إلى CNBC حصريًا من مكتب الشركة في لندن: “نجري محادثات مثمرة مع حكومة الاتحاد الأوروبي. لأننا نريد إيجاد طريق للمضي قدمًا”.

“هذه التقنيات تنطوي على مخاطر ، لكن لديها أيضًا قدرة هائلة تولد قيمة حقيقية للناس.”

قال كوريان إن Google تعمل على تقنيات للتأكد من أن الناس يمكنهم التمييز بين المحتوى الذي تم إنشاؤه بواسطة الإنسان والذكاء الاصطناعي. كشفت الشركة عن حل “العلامة المائية” الذي يصنف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في حدث I / O الشهر الماضي.

إنه يلمح إلى كيفية عمل Google وشركات التكنولوجيا الكبرى الأخرى على وسائل لجلب الإشراف الذي يحركه القطاع الخاص إلى الذكاء الاصطناعي قبل اللوائح الرسمية المتعلقة بالتكنولوجيا.

تتطور أنظمة الذكاء الاصطناعي بوتيرة سريعة ، مع أدوات مثل ChatGPT و Stability Diffusion قادرة على إنتاج أشياء تتجاوز إمكانيات التكرارات السابقة للتكنولوجيا. يتم استخدام ChatGPT وأدوات مثله بشكل متزايد من قبل مبرمجي الكمبيوتر كرفاق لمساعدتهم على إنشاء التعليمات البرمجية ، على سبيل المثال.

ومع ذلك ، فإن أحد الشواغل الرئيسية لدى صانعي السياسات والهيئات التنظيمية في الاتحاد الأوروبي هو أن نماذج الذكاء الاصطناعي التوليدية قد خفضت الحاجز أمام الإنتاج الضخم للمحتوى بناءً على المواد التي تنتهك حقوق الطبع والنشر ، ويمكن أن تضر بالفنانين وغيرهم من المهنيين المبدعين الذين يعتمدون على الإتاوات لكسب المال. يتم تدريب نماذج الذكاء الاصطناعي التوليدية على مجموعات ضخمة من بيانات الإنترنت المتاحة للجمهور ، وكثير منها محمي بحقوق النشر.

في وقت سابق من هذا الشهر ، وافق أعضاء في البرلمان الأوروبي على تشريع يهدف إلى فرض الرقابة على انتشار الذكاء الاصطناعي في الكتلة. يتضمن القانون ، المعروف باسم قانون الاتحاد الأوروبي للذكاء الاصطناعي ، أحكامًا لضمان أن بيانات التدريب الخاصة بأدوات الذكاء الاصطناعي التوليفية لا تنتهك قوانين حقوق النشر.

قال كوريان: “لدينا الكثير من العملاء الأوروبيين الذين يبنون تطبيقات الذكاء الاصطناعي التوليدية باستخدام منصتنا”. “نواصل العمل مع حكومة الاتحاد الأوروبي للتأكد من أننا نتفهم مخاوفهم.”

“نحن نقدم أدوات ، على سبيل المثال ، للتعرف على ما إذا كان المحتوى قد تم إنشاؤه بواسطة نموذج. وهذا لا يقل أهمية عن قول إن حقوق الطبع والنشر مهمة ، لأنه إذا كنت لا تستطيع معرفة ما تم إنشاؤه بواسطة شخص أو ما تم إنشاؤه بواسطة النموذج ، فلن تكون قادرًا على فرضه “.

أصبح الذكاء الاصطناعي ساحة معركة رئيسية في صناعة التكنولوجيا العالمية حيث تتنافس الشركات على دور رائد في تطوير التكنولوجيا – لا سيما الذكاء الاصطناعي التوليدي ، والذي يمكنه إنشاء محتوى جديد من مطالبات المستخدم.

ما يمكن للذكاء الاصطناعي التوليدي القيام به ، من إنتاج كلمات الموسيقى إلى إنشاء التعليمات البرمجية ، قد أذهل الأكاديميين ومجالس الإدارة.

لكنه أدى أيضًا إلى مخاوف بشأن الاستغناء عن الوظائف والمعلومات المضللة والتحيز.

أعرب العديد من كبار الباحثين والموظفين داخل صفوف Google الخاصة عن قلقهم بشأن السرعة التي تتحرك بها وتيرة الذكاء الاصطناعي.

موظفي Google أطلق عليها اسم إعلان الشركة عن بارد، روبوت الدردشة المدعوم بالذكاء الاصطناعي الخاص به لمنافسة برنامج OpenAI’s ChatGPT المدعوم من Microsoft ، مثل “التسرع” و “الفاشلة” و “un-Googley” في الرسائل على المنتدى الداخلي Memegen ، على سبيل المثال.

كما أطلق العديد من الباحثين البارزين السابقين في Google ناقوس الخطر بشأن تعامل الشركة مع الذكاء الاصطناعي وما يقولون إنه عدم الاهتمام بالتطور الأخلاقي لهذه التكنولوجيا.

ومن بينهم Timnit Gebru ، الرئيس المشارك السابق لفريق Google الأخلاقي للذكاء الاصطناعي ، بعد دق ناقوس الخطر بشأن الإرشادات الداخلية للشركة بشأن أخلاقيات الذكاء الاصطناعي ، وجيفري هينتون ، رائد التعلم الآلي المعروف باسم “الأب الروحي للذكاء الاصطناعي” ، الذي ترك الشركة مؤخرًا بسبب مخاوف من أن دفعها العدواني إلى الذكاء الاصطناعي كان يخرج عن نطاق السيطرة.

تحقيقًا لهذه الغاية ، يريد كوريان من Google أن يعرف المنظمون العالميون أنه ليس خائفًا من الترحيب بالتنظيم.

وقال كوريان لشبكة CNBC: “قلنا على نطاق واسع أننا نرحب بالتنظيم”. “نعتقد أن هذه التقنيات قوية بما فيه الكفاية ، ويجب تنظيمها بطريقة مسؤولة ، ونحن نعمل مع الحكومات في الاتحاد الأوروبي والمملكة المتحدة والعديد من البلدان الأخرى لضمان اعتمادها بالطريقة الصحيحة.”

في مكان آخر من الاندفاع العالمي لتنظيم الذكاء الاصطناعي ، قدمت المملكة المتحدة إطارًا لمبادئ الذكاء الاصطناعي للجهات التنظيمية لفرض نفسها بدلاً من كتابة لوائحها الرسمية في القانون. في الولايات المتحدة ، اقترحت إدارة الرئيس جو بايدن والعديد من الوكالات الحكومية الأمريكية أيضًا أطرًا لتنظيم الذكاء الاصطناعي.

ومع ذلك ، فإن المشكلة الرئيسية بين المطلعين على صناعة التكنولوجيا هي أن المنظمين ليسوا الأسرع تحركًا عندما يتعلق الأمر بالاستجابة للتقنيات الجديدة المبتكرة. هذا هو السبب في أن العديد من الشركات تبتكر مناهجها الخاصة لإدخال حواجز حماية حول الذكاء الاصطناعي ، بدلاً من انتظار صدور القوانين المناسبة.

يشاهد: يقول دان آيفز من شركة Wedbush Securities ، إن الذكاء الاصطناعي ليس في دائرة الضجيج ، إنه “تكنولوجيا تحويلية”

اقرأ أكثر

إصلاح Pixel Fold بنفسك هو أسوأ فكرة ممكنة
جيف جرين: أعتقد أنه من الخطأ الاستراتيجي أن تتخلص Google من ملفات تعريف الارتباط في الربع الأول من عام 2024

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل