شركات التكنولوجيا الكبرى تعترف بمخاطر الذكاء الاصطناعي في الملفات التنظيمية مايك دالتون · منذ 13 ساعات · 2 دقيقة للقراءة
سلطت شركات مايكروسوفت وأبل وجوجل وشركات أخرى الضوء على المخاطر المتنوعة.
غلاف فني/رسم توضيحي عبر CryptoSlate. تتضمن الصورة محتوى مدمجًا قد يتضمن محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
في سلسلة من الإيداعات الأخيرة المقدمة إلى لجنة الأوراق المالية والبورصات، سلطت شركات التكنولوجيا الكبرى، بما في ذلك مايكروسوفت، وجوجل، وميتا، وإنفيديا، الضوء على المخاطر الكبيرة المرتبطة بتطوير ونشر الذكاء الاصطناعي.
تعكس الإفصاحات المخاوف المتزايدة بشأن قدرة الذكاء الاصطناعي على التسبب في ضرر للسمعة، والمسؤولية القانونية، والتدقيق التنظيمي.
مخاوف بشأن الذكاء الاصطناعي
مايكروسوفت أعربت شركة جوجل عن تفاؤلها تجاه الذكاء الاصطناعي، لكنها حذرت من أن التنفيذ والتطوير السيئين قد يتسببان في “ضرر سمعي أو تنافسي أو مسؤولية” للشركة نفسها. وأكدت على التكامل الواسع للذكاء الاصطناعي في عروضها والمخاطر المحتملة المرتبطة بهذه التطورات. حددت الشركة العديد من المخاوف، بما في ذلك الخوارزميات المعيبة ومجموعات البيانات المتحيزة والمحتوى الضار الناتج عن الذكاء الاصطناعي.
أقرت مايكروسوفت بأن ممارسات الذكاء الاصطناعي غير الكافية قد تؤدي إلى مشكلات قانونية وتنظيمية وأخرى تتعلق بالسمعة. كما أشارت الشركة إلى تأثير التشريعات الحالية والمقترحة، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي والأمر التنفيذي للذكاء الاصطناعي في الولايات المتحدة، والذي قد يزيد من تعقيد نشر الذكاء الاصطناعي وقبوله.
جوجل عكست هذه الدعوى العديد من مخاوف مايكروسوفت، حيث سلطت الضوء على المخاطر المتطورة المرتبطة بجهودها في مجال الذكاء الاصطناعي. حددت الشركة مشكلات محتملة تتعلق بالمحتوى الضار، وعدم الدقة، والتمييز، وخصوصية البيانات.
وشددت جوجل على التحديات الأخلاقية التي يفرضها الذكاء الاصطناعي والحاجة إلى استثمارات كبيرة لإدارة هذه المخاطر بشكل مسؤول. كما أقرت الشركة بأنها قد لا تتمكن من تحديد أو حل جميع المشكلات المتعلقة بالذكاء الاصطناعي قبل ظهورها، مما قد يؤدي إلى اتخاذ إجراءات تنظيمية وإلحاق الضرر بسمعتها.
ميتا قالت شركة جوجل إنها “قد لا تنجح” في مبادراتها المتعلقة بالذكاء الاصطناعي، مما يشكل نفس المخاطر التجارية والتشغيلية والمالية. وحذرت الشركة من المخاطر الكبيرة التي تنطوي عليها، بما في ذلك إمكانية المحتوى الضار أو غير القانوني، والمعلومات المضللة، والتحيز، وتهديدات الأمن السيبراني.
أعربت شركة ميتا عن مخاوفها بشأن المشهد التنظيمي المتطور، مشيرة إلى أن التدقيق الجديد أو المعزز قد يؤثر سلبًا على أعمالها. كما سلطت الشركة الضوء على الضغوط التنافسية والتحديات التي تفرضها الشركات الأخرى التي تطور تقنيات الذكاء الاصطناعي المماثلة.
نفيديا ولم تخصص الشركة قسمًا لعوامل الخطر المرتبطة بالذكاء الاصطناعي، لكنها ذكرت هذه القضية على نطاق واسع في مخاوفها التنظيمية. وناقشت الشركة التأثير المحتمل للقوانين واللوائح المختلفة، بما في ذلك تلك المتعلقة بالملكية الفكرية وخصوصية البيانات والأمن السيبراني.
وسلطت شركة إنفيديا الضوء على التحديات المحددة التي تفرضها تقنيات الذكاء الاصطناعي، بما في ذلك ضوابط التصدير والتوترات الجيوسياسية. وأشارت الشركة إلى أن زيادة التركيز التنظيمي على الذكاء الاصطناعي قد يؤدي إلى تكاليف امتثال كبيرة وانقطاعات تشغيلية.
إلى جانب شركات أخرى، سلطت شركة إنفيديا الضوء على الاتحاد الأوروبي قانون الذكاء الاصطناعي كمثال على التنظيم الذي قد يؤدي إلى اتخاذ إجراءات تنظيمية.
المخاطر ليست بالضرورة محتملة
أورد موقع بلومبرج الخبر لأول مرة في 3 يوليومع ملاحظة أن عوامل الخطر المعلنة ليست نتائج محتملة. بل إن الإفصاحات هي محاولة لتجنب تحمل المسؤولية.
وقال آدم بريتشارد، أستاذ قانون الشركات والأوراق المالية في كلية الحقوق بجامعة ميشيغان، لوكالة بلومبرج:
“إذا لم تكشف إحدى الشركات عن المخاطر التي تواجهها الشركات المماثلة، فقد تصبح هدفًا لدعاوى قضائية”
حددت بلومبرج أيضًا شركات Adobe وDell وOracle وPalo Alto Networks وUber كشركات أخرى نشرت إفصاحات عن مخاطر الذكاء الاصطناعي في الملفات المقدمة إلى لجنة الأوراق المالية والبورصات.