3 يوليو 2023 • قراءة لمدة 5 دقائق • بواسطة مارتي سوانت
كان التأثير المحتمل للذكاء الاصطناعي على خصوصية البيانات والملكية الفكرية موضوعًا ساخنًا لأشهر ، لكن الدعاوى القضائية الجديدة المرفوعة ضد OpenAI تهدف إلى معالجة كلتا القضيتين في محاكم كاليفورنيا.
في دعوى جماعية تم رفعها الأسبوع الماضي ، زعم المحامون أن شركة OpenAI انتهكت قوانين حقوق النشر والخصوصية الخاصة بالولاية والفيدرالية عند جمع البيانات المستخدمة لتدريب نماذج اللغة المستخدمة في ChatGPT وتطبيقات الذكاء الاصطناعي الأخرى. بحسب ال شكوى، يُزعم أن OpenAI سرقت البيانات الشخصية من الأشخاص عن طريق تجريف الإنترنت والتطبيقات المختلفة بما في ذلك Snapchat و Spotify و Slack وحتى منصة الصحة MyChart.
بدلاً من مجرد التركيز على خصوصية البيانات ، تزعم الشكوى – التي قدمتها شركة Clarkson Law Firm – أن OpenAI قد انتهك قوانين حقوق النشر ، والتي لا تزال تمثل منطقة رمادية قانونية على عدد من الجبهات. حماية الملكية الفكرية هي أيضًا محور دعوى قضائية منفصلة رفعتها شركة مختلفة الأسبوع الماضي في قضية تزعم أن OpenAI أساء استخدام أعمال مؤلفين أمريكيين أثناء تدريب ChatGPT.
“نظرًا لأن هذا يتحرك بوتيرة متسارعة ويصبح أكثر فأكثر متشابكًا مع أسلوب حياتنا مع مرور كل يوم ، فمن المهم أن تعالج المحاكم هذه المشكلات قبل أن نتورط كثيرًا ونقطة اللاعودة” ، قال كلاركسون لو وقال الشريك الإداري للشركة رايان كلاركسون لـ Digiday. “ما زلنا نحاول تعلم دروسنا من وسائل التواصل الاجتماعي والعوامل الخارجية السلبية لذلك ، وهذا يصب وقود الصواريخ على تلك المشاكل.”
الدعوى المرفوعة من قبل Clarkson لا تذكر اسم أي مدعين بشكل مباشر ولكنها تتضمن الأحرف الأولى لأكثر من عشرة أشخاص. تبحث الشركة أيضًا بنشاط عن المزيد من المدعين للانضمام إلى قضية الإجراءات الجماعية ، وقد أنشأت أيضًا موقعًا على شبكة الإنترنت حيث يمكن للأشخاص مشاركة المزيد من المعلومات حول كيفية استخدامهم لمنتجات الذكاء الاصطناعي المختلفة بما في ذلك ChatGPT ، ومنشئ الصور من OpenAI DALL-E ومقلد الصوت. VALL-E أو منتجات AI من شركات أخرى مثل Google و Meta.
OpenAI – تُستخدم تقنيته بالفعل في منصات إعلانية مثل بحث Microsoft Bing وفي جديد واجهة برمجة تطبيقات إعلانات الدردشة للناشرين – لم يستجب لطلب Digiday للتعليق. ومع ذلك ، فإن آخر تحديث لسياسة الخصوصية في 23 يونيو يقول إن الشركة لا “تبيع” أو “تشارك” المعلومات الشخصية للإعلان عبر السياقات ولا “تجمع عن قصد” المعلومات الشخصية للأطفال دون سن 13 عامًا. كما أن OpenAI لديها سياسة خصوصية منفصلة للموظفين والمتقدمين والمتعاقدين والضيوف تم التحديث في فبراير. في هذه المصطلحات ، قالت الشركة إنها لم “تبيع أو تشارك معلوماتك الشخصية لأغراض إعلانية مستهدفة في الاثني عشر شهرًا السابقة” بينما قالت أيضًا في قسم آخر أن المستخدمين لديهم الحق في إلغاء الاشتراك في “الإعلان السلوكي عبر السياقات” . “
في شكوى كلاركسون ، يزعم المحامون أيضًا أن OpenAI انتهكت قوانين الخصوصية أثناء جمع البيانات ومشاركتها للإعلان ، بما في ذلك استهداف القاصرين والأشخاص المستضعفين من خلال الإعلانات المفترسة والتمييز الخوارزمي و “الأعمال غير الأخلاقية والضارة الأخرى”. قالت تريسي كوان ، الشريك الآخر في كلاركسون المتورط في قضية أوبن إيه آي ، إن الشركة تمثل عددًا من المدعين الصغار الذين يشعرون بالقلق من نشر تكنولوجيا الذكاء الاصطناعي دون حواجز مناسبة للأطفال. وقالت إن هذا يثير مجموعة مختلفة من القضايا عن المخاوف المتعلقة بغزو الحرمان للبالغين.
قال كوان: “إنها حقًا تسلط الضوء على المخاطر التي يمكن أن تأتي مع التقنيات غير المنظمة وغير المختبرة”. “يعد تقديم الدعاوى ضد القاصرين أمرًا بالغ الأهمية لمعرفة سبب اعتقادنا أنه من المهم جدًا وضع بعض حواجز الأمان حول هذه التكنولوجيا ، والحصول على بعض الشفافية حول كيفية قيام الشركات بأخذ معلوماتنا وكيفية استخدامها والحصول على بعض التعويضات للتأكد من موافقة الناس “.
تأتي التحديات القانونية في الوقت الذي تواجه فيه صناعة الذكاء الاصطناعي مزيدًا من التدقيق. في أواخر الأسبوع الماضي ، نشرت لجنة التجارة الفيدرالية الأمريكية أيضًا منشورًا جديدًا على المدونة يقترح أن الذكاء الاصطناعي التوليدي يثير “مخاوف المنافسة” المتعلقة بالبيانات والموهبة وموارد الحوسبة ومجالات أخرى. يمضي الاتحاد الأوروبي قدمًا في اقتراح لتنظيم الذكاء الاصطناعي من خلال “قانون الذكاء الاصطناعي” ، مما دفع المديرين التنفيذيين من أكثر من 150 شركة إلى إرسال خطاب مفتوح إلى لوائح المفوضية الأوروبية التحذيرية التي قد تكون غير فعالة وتضر بالمنافسة. المشرعون في الولايات المتحدة كذلك استكشاف إمكانية التنظيم.
على الرغم من المشهد القانوني والتنظيمي غير المؤكد والمتطور ، فإن المزيد من المسوقين يمضون قدمًا في رؤية الذكاء الاصطناعي باعتباره أكثر من مجرد اتجاه جديد وشيء يمكن أن يؤثر بشكل كبير على العديد من مجالات الأعمال. ومع ذلك ، هذا لا يعني أن الكثيرين لا يزالون يقترحون تجربة الشركات مع توخي الحذر أيضًا.
في وكالة The Social Lights ومقرها مينيابوليس ، قال المسؤول الإبداعي والاستراتيجي جريج سوان إنه كان يقدم المشورة للفرق التي ترغب في اختبار أدوات الذكاء الاصطناعي التوليدية للتأكد من أنها لا تنسخ وتلصق المحتوى التوليدي مباشرة في المواد التسويقية.
قال سوان: “أميل إلى التفكير في الذكاء الاصطناعي وهذه الصناعة برمتها على أنها مراهقة مبكرة تعتقد أنها بحاجة إلى كل شيء وقواعد الطريق ، لكنها لا تزال بحاجة إلى إشراف الكبار”. “من الصعب للغاية معرفة مكان الإلهام والسرقة ، تمامًا كما هو الحال مع جميع مخرجات التسويق ، ومسائل المواد المصدر ، ومسائل الانتحال ، والتعويض العادل لأمور المبدعين ، ومسائل سلامة العلامة التجارية.”
بدلاً من كشط البيانات دون إذن ، تتخذ بعض الشركات الناشئة في مجال الذكاء الاصطناعي نهجًا بديلاً لعملياتها. على سبيل المثال ، تقوم شركة Bria ومقرها إسرائيل بتدريب أدوات الذكاء الاصطناعي المرئية الخاصة بها فقط بمحتوى لديها بالفعل تراخيص لاستخدامها. إنها باهظة الثمن ولكنها أقل خطورة – وهي عملية تأمل الشركة أن تؤتي ثمارها. (يشمل شركاء Bria Getty Images ، التي رفعت دعوى قضائية ضد Stability AI في وقت سابق من هذا العام بزعم سرقة 12 مليون صورة واستخدامها لتدريب منشئها الفني مفتوح المصدر للذكاء الاصطناعي دون إذن).
قال فيريد هوريش ، رئيس شراكات الذكاء الاصطناعي الإستراتيجية في شركة Bria: “ستستجيب الأسواق بشكل أسرع من النظام القانوني”. “وعندما يستجيبون ، فإنه سيجبر شركات الذكاء الاصطناعي على التصرف بمسؤولية أكبر … من المعروف أن النماذج لم تعد خندقًا مائيًا. البيانات هي الخندق المائي “.
https://digiday.com/؟p=509623