أصبح من الواضح بشكل متزايد أن المحاكم ، وليس السياسيين ، ستكون أول من يحدد حدود كيفية تطوير الذكاء الاصطناعي واستخدامه في الولايات المتحدة.
في الأسبوع الماضي ، فتحت لجنة التجارة الفيدرالية تحقيقًا حول ما إذا كانت شركة OpenAI قد انتهكت قوانين حماية المستهلك من خلال تجريد بيانات الأشخاص عبر الإنترنت لتدريب روبوت الدردشة الشهير ChatGPT الخاص بالذكاء الاصطناعي. وفي الوقت نفسه ، يقاضي الفنانون والمؤلفون وشركة الصور Getty شركات الذكاء الاصطناعي مثل OpenAI و Stability AI و Meta ، زاعمين أنهم انتهكوا قوانين حقوق النشر من خلال تدريب عارضاتهم على أعمالهم دون تقديم أي اعتراف أو دفع.
إذا أثبتت هذه الحالات نجاحها ، فقد تجبر OpenAI و Meta و Microsoft وغيرها على تغيير طريقة إنشاء الذكاء الاصطناعي وتدريبه ونشره بحيث يكون أكثر عدلاً وإنصافًا.
يمكنهم أيضًا إنشاء طرق جديدة للفنانين والمؤلفين وغيرهم للتعويض عن استخدام أعمالهم كبيانات تدريب لنماذج الذكاء الاصطناعي ، من خلال نظام الترخيص والإتاوات.
الطفرة التوليدية للذكاء الاصطناعي أعاد إحياء حماس السياسيين الأمريكيين لتمرير قوانين خاصة بالذكاء الاصطناعي. ومع ذلك ، من غير المحتمل أن نرى أي تشريع من هذا القبيل يمر في العام المقبل ، نظرًا لانقسام الكونجرس والضغط المكثف من شركات التكنولوجيا ، كما يقول بن وينترز ، كبير المستشارين في مركز معلومات الخصوصية الإلكترونية. حتى أبرز محاولة لوضع قواعد جديدة للذكاء الاصطناعي ، السناتور تشاك شومر إطار عمل الابتكار الآمن، لا يتضمن أي مقترحات سياسية محددة.
“يبدو أنه المسار الأكثر مباشرة [toward an AI rulebook is] تقول سارة مايرز ويست ، المديرة الإدارية لمعهد AI Now ، وهي مجموعة بحثية ، أن نبدأ بالقوانين الحالية الموجودة في الكتب.
وهذا يعني الدعاوى القضائية.
دعاوى اليسار واليمين والوسط
قدمت القوانين الحالية الكثير من الذخيرة لأولئك الذين يقولون إن حقوقهم تضررت من قبل شركات الذكاء الاصطناعي.
في العام الماضي ، تعرضت هذه الشركات لموجة من الدعاوى القضائية ، كان آخرها من الممثلة الكوميدية والمؤلفة سارة سيلفرمان ، التي تدعي أن OpenAI و Meta قاما بإلغاء المواد المحمية بحقوق الطبع والنشر بشكل غير قانوني من الإنترنت لتدريب عارضات الأزياء. تتشابه ادعاءاتها مع ادعاءات فنانين في دعوى جماعية أخرى تزعم أن برامج الذكاء الاصطناعي لتوليد الصور الشهيرة استخدمت صورهم المحمية بحقوق الطبع والنشر دون موافقة. تواجه أداة البرمجة بمساعدة الذكاء الاصطناعي Copilot التابعة لـ Microsoft و OpenAI و GitHub أيضًا دعوى جماعية تدعي أنها تعتمد على “قرصنة البرامج على نطاق غير مسبوق” لأنها تدربت على كود البرمجة الحالي المأخوذ من مواقع الويب.
وفي الوقت نفسه ، تحقق لجنة التجارة الفيدرالية فيما إذا كانت ممارسات OpenAI الخاصة بأمن البيانات والخصوصية غير عادلة ومضللة ، وما إذا كانت الشركة قد تسببت في ضرر ، بما في ذلك الإضرار بالسمعة ، للمستهلكين عندما قامت بتدريب نماذج الذكاء الاصطناعي الخاصة بها. لديها دليل حقيقي لدعم مخاوفها: تعرضت OpenAI لخرق أمني في وقت سابق من هذا العام بعد خطأ في النظام تسبب في تسريب سجل الدردشة ومعلومات الدفع للمستخدمين. وغالبًا ما تنشر نماذج لغة الذكاء الاصطناعي محتوى غير دقيق ومختلق ، أحيانًا عن الأشخاص.
إن شركة OpenAI متفائلة بشأن تحقيق لجنة التجارة الفيدرالية – على الأقل في الأماكن العامة. عند الاتصال للتعليق ، قامت الشركة بمشاركة ملف موضوع تويتر من الرئيس التنفيذي سام التمان ، حيث قال إن الشركة “واثقة من أننا نتبع القانون”.
يمكن لوكالة مثل FTC رفع دعاوى قضائية ضد الشركات ، وفرض معايير ضد الصناعة ، وتقديم ممارسات تجارية أفضل ، كما يقول مارك روتنبرغ ، رئيس ومؤسس مركز الذكاء الاصطناعي والسياسة الرقمية (CAIDP) ، وهو مؤسسة غير ربحية. قدم CAIDP شكوى إلى FTC في مارس يطلب منها التحقيق مع OpenAI. يقول مايرز ويست إن الوكالة لديها القدرة على إنشاء حواجز حماية جديدة بشكل فعال تخبر شركات الذكاء الاصطناعي بما يحق لها وما لا يُسمح لها بفعله.
يقول روتنبرغ إن لجنة التجارة الفيدرالية قد تطلب من شركة OpenAI دفع غرامات أو حذف أي بيانات تم الحصول عليها بشكل غير قانوني ، وحذف الخوارزميات التي استخدمت البيانات التي تم جمعها بشكل غير قانوني. في الحالة القصوى ، يمكن قطع ChatGPT في وضع عدم الاتصال. هناك سابقة لذلك: جعلت الوكالة شركة الحمية Weight Watchers تحذف بياناتها وخوارزمياتها في عام 2022 بعد جمع بيانات الأطفال بشكل غير قانوني.
قد تبدأ وكالات الإنفاذ الحكومية الأخرى تحقيقاتها الخاصة أيضًا. مكتب الحماية المالية للمستهلك لديه أشار إنها تبحث في استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في البنوك ، على سبيل المثال. يقول وينترز إنه إذا لعبت الذكاء الاصطناعي التوليدي دورًا حاسمًا في الانتخابات الرئاسية الأمريكية المقبلة لعام 2024 ، فيمكن للجنة الانتخابات الفيدرالية أن تحقق أيضًا.
في غضون ذلك ، يجب أن نبدأ في رؤية نتائج الدعاوى القضائية تتدفق ، على الرغم من أن الأمر قد يستغرق عامين على الأقل قبل أن يتم رفع الدعاوى الجماعية وتحقيقات لجنة التجارة الفيدرالية إلى المحكمة.
سيتم رفض العديد من الدعاوى القضائية التي تم رفعها هذا العام من قبل قاضٍ لكونها فضفاضة للغاية ، كما يعتقد مهتاب خان ، الزميل المقيم في كلية الحقوق بجامعة ييل ، والمتخصص في الملكية الفكرية وإدارة البيانات وأخلاقيات الذكاء الاصطناعي. لكنهم ما زالوا يخدمون غرضًا مهمًا. يلقي المحامون شبكة واسعة ويرون ما يعلق. وتضيف أن هذا يسمح بقضايا قضائية أكثر دقة يمكن أن تقود الشركات إلى تغيير طريقة بناء واستخدام نماذج الذكاء الاصطناعي الخاصة بهم في المستقبل.
يقول خان إن الدعاوى القضائية قد تجبر الشركات أيضًا على تحسين ممارسات توثيق البيانات الخاصة بها. في الوقت الحالي ، لدى شركات التكنولوجيا فكرة بدائية للغاية عن البيانات التي تدخل في نماذج الذكاء الاصطناعي الخاصة بهم. قد يؤدي التوثيق الأفضل لكيفية جمعهم للبيانات واستخدامها إلى كشف أي ممارسات غير قانونية ، ولكنه قد يساعدهم أيضًا في الدفاع عن أنفسهم في المحكمة.
التاريخ يعيد نفسه
ليس من غير المعتاد أن تسفر الدعاوى القضائية عن نتائج قبل أن تبدأ أشكال أخرى من التنظيم – في الواقع ، هذه هي بالضبط الطريقة التي تعاملت بها الولايات المتحدة مع التقنيات الجديدة في الماضي ، كما يقول خان.
نهجها يختلف عن نهج الدول الغربية الأخرى. بينما يحاول الاتحاد الأوروبي منع أسوأ ضرر للذكاء الاصطناعي بشكل استباقي ، فإن النهج الأمريكي أكثر تفاعلية. تنتظر الولايات المتحدة ظهور الأضرار أولاً قبل تنظيمها ، كما يقول أمير غافي ، الشريك في شركة المحاماة فريد فرانك. غافي تمثل شركة Stability AI ، الشركة التي تقف وراء إنشاء صورة مفتوحة المصدر AI Stable Diffusion ، في ثلاث دعاوى قضائية تتعلق بحقوق النشر.
يقول غافي: “هذا موقف مؤيد للرأسمالية”. “إنه يعزز الابتكار. إنه يمنح المبدعين والمخترعين الحرية في أن يكونوا أكثر جرأة في تخيل حلول جديدة “.
يمكن للدعاوى القضائية الجماعية بشأن حقوق النشر والخصوصية أن تلقي مزيدًا من الضوء على كيفية عمل خوارزميات الذكاء الاصطناعي “الصندوق الأسود” وتخلق طرقًا جديدة للفنانين والمؤلفين لتعويضهم عن استخدام أعمالهم في نماذج الذكاء الاصطناعي ، كما يقول جوزيف سافيري ، مؤسس مكافحة الاحتكار وشركة محاماة جماعية وماثيو باتريك محامٍ.
إنهم يقودون الدعاوى ضد GitHub و Microsoft و OpenAI و Stability AI و Meta. يمثل Saveri و Butterick Silverman ، وهو جزء من مجموعة من المؤلفين الذين يزعمون أن شركات التكنولوجيا دربت نماذج لغتهم على كتبهم المحمية بحقوق الطبع والنشر. يتم تدريب نماذج الذكاء الاصطناعي التوليدية باستخدام مجموعات بيانات ضخمة من الصور والنصوص المأخوذة من الإنترنت. هذا يتضمن حتما البيانات المحمية بحقوق النشر. يقول المؤلفون والفنانون والمبرمجون إن شركات التكنولوجيا التي ألغت ملكيتها الفكرية دون موافقة أو إسناد يجب أن تعوضهم.
يقول باتريك: “هناك فراغ حيث لا توجد سيادة قانون حتى الآن ، ونحن نضع القانون حيث يجب أن يذهب”. ويضيف أنه في حين أن تقنيات الذكاء الاصطناعي محل الخلاف في الدعاوى قد تكون جديدة ، فإن الأسئلة القانونية حولها ليست كذلك ، ويعتمد الفريق على قانون حقوق النشر “القديم الجيد”.
يشير باتريك وسافيري إلى Napster ، نظام مشاركة الموسيقى من نظير إلى نظير ، كمثال. تم رفع دعوى قضائية ضد الشركة من قبل شركات التسجيل لانتهاك حقوق الطبع والنشر ، وأدى ذلك إلى قضية تاريخية بشأن الاستخدام العادل للموسيقى.
مهدت تسوية Napster الطريق أمام شركات مثل Apple و Spotify وغيرهما لبدء إنشاء صفقات جديدة قائمة على الترخيص ، كما يقول باتريك. يأمل الزوجان أن تمهد دعاوى قضائهما أيضًا الطريق لحل الترخيص حيث يمكن أيضًا دفع رسوم للفنانين والكتاب وغيرهم من مالكي حقوق الطبع والنشر مقابل استخدام المحتوى الخاص بهم في نموذج الذكاء الاصطناعي ، على غرار النظام المطبق في الموسيقى. صناعة لأخذ عينات الأغاني. سيتعين على الشركات أيضًا أن تطلب إذنًا صريحًا لاستخدام المحتوى المحمي بحقوق الطبع والنشر في مجموعات التدريب.
تعاملت شركات التكنولوجيا مع البيانات المحمية بحقوق الطبع والنشر المتاحة للجمهور على الإنترنت باعتبارها خاضعة “للاستخدام العادل” بموجب قانون حقوق النشر في الولايات المتحدة ، مما يسمح لها باستخدامها دون طلب الإذن أولاً. أصحاب حقوق الطبع والنشر يختلفون. من المرجح أن تحدد الإجراءات الجماعية من هو على حق ، كما يقول غافي.
هذه مجرد بداية لوقت ازدهار جديد لمحامي التكنولوجيا. اتفق الخبراء الذين تحدثت إليهم MIT Technology Review على أنه من المحتمل أيضًا أن تواجه شركات التكنولوجيا دعاوى قضائية بشأن الخصوصية والبيانات الحيوية ، مثل صور وجوه الأشخاص أو مقاطع منهم يتحدثون. تواجه Prisma Labs ، الشركة التي تقف وراء برنامج Lensa الشهير للذكاء الاصطناعي ، ملفًا دعوى جماعية على طريقة جمعها لبيانات القياسات الحيوية للمستخدمين.
يعتقد Ben Winters أننا سنرى أيضًا المزيد من الدعاوى القضائية حول مسؤولية المنتج والقسم 230 ، والذي سيحدد ما إذا كانت شركات الذكاء الاصطناعي مسؤولة إذا انحرفت منتجاتها وما إذا كان ينبغي أن تتحمل المسؤولية عن المحتوى الذي تنتجه نماذج الذكاء الاصطناعي الخاصة بها.
يقول سافيري: “يمكن أن تكون عمليات التقاضي هدفًا فظًا للتغيير الاجتماعي ، ولكن مع ذلك ، يمكن أن تكون فعالة جدًا”. “ولا أحد يضغط على ماثيو [Butterick] أو أنا.”