بعد OpenAI مؤخرًا أعلن أن مسؤولي الويب سيكونون قادرين على منع أنظمتهم من الزحف إلى محتواهم، عبر تحديث لملف robots.txt الخاص بموقعهم، وتتطلع Google أيضًا إلى منح مديري الويب المزيد من السيطرة على بياناتهم، وما إذا كانوا يسمحون للكاشطات الخاصة بها باستيعابها للبحث التوليدي في الذكاء الاصطناعي.
كما أوضح جوجل:
“نعلن اليوم عن Google-Extending، وهو عنصر تحكم جديد يمكن لناشري الويب استخدامه لإدارة ما إذا كانت مواقعهم تساعد في تحسين واجهات برمجة التطبيقات (APIs) التوليدية لـ Bard وVertex AI، بما في ذلك الأجيال القادمة من النماذج التي تعمل على تشغيل هذه المنتجات. وباستخدام Google-Extending للتحكم في الوصول إلى المحتوى الموجود على موقع ما، يمكن لمسؤول موقع الويب اختيار ما إذا كان يريد مساعدة نماذج الذكاء الاصطناعي هذه على أن تصبح أكثر دقة وقدرة بمرور الوقت.
وهو ما يشبه الصياغة التي استخدمتها شركة OpenAI، في محاولة الحصول على المزيد من المواقع للسماح بالوصول إلى البيانات مع وعد بتحسين نماذجها.
في الواقع، وثائق OpenAIيوضح أن:
“يتم استخدام المحتوى المسترد فقط في عملية التدريب لتعليم نماذجنا كيفية الاستجابة لطلب المستخدم في ضوء هذا المحتوى (أي لجعل نماذجنا أفضل في التصفح)، وليس لجعل نماذجنا أفضل في إنشاء الاستجابات.
من الواضح أن كلاً من Google وOpenAI يرغبان في الاستمرار في جلب أكبر قدر ممكن من البيانات من الويب المفتوح. لكن القدرة على منع نماذج الذكاء الاصطناعي من الوصول إلى المحتوى قد ظهرت بالفعل العديد من الناشرين والمبدعين الكبار يفعلون ذلككوسيلة لحماية حقوق النشر، ومنع أنظمة الذكاء الاصطناعي التوليدية من تكرار أعمالها.
ومع مناقشة حول تنظيم الذكاء الاصطناعي تسخين، يمكن للاعبين الكبار رؤية الكتابة على الحائط، الأمر الذي سيؤدي في النهاية إلى المزيد من إنفاذ مجموعات البيانات المستخدمة لبناء نماذج الذكاء الاصطناعي التوليدية.
بالطبع، فات الأوان بالنسبة للبعض، حيث قامت OpenAI، على سبيل المثال، بالفعل ببناء نماذج GPT الخاصة بها (حتى GPT-4) بناءً على البيانات المأخوذة من الويب قبل عام 2021. لذلك تم بالفعل إنشاء بعض نماذج اللغات الكبيرة (LLM) قبل ذلك. تم الإعلان عن هذه الأذونات. ولكن للمضي قدمًا، يبدو أن LLMs سيكون لديها عدد أقل بكثير من مواقع الويب التي سيتمكنون من الوصول إليها لإنشاء أنظمة الذكاء الاصطناعي التوليدية الخاصة بهم.
والذي سيصبح ضرورة، على الرغم من أنه سيكون من المثير للاهتمام معرفة ما إذا كان هذا يأتي أيضًا مع اعتبارات تحسين محركات البحث، حيث يستخدم المزيد من الأشخاص الذكاء الاصطناعي التوليدي للبحث في الويب. ChatGPT حصلت على الوصول إلى شبكة الإنترنت المفتوحة هذا الأسبوع، من أجل تحسين دقة ردودها، بينما تختبر Google الذكاء الاصطناعي التوليدي في البحث كجزء من تجربة مختبرات البحث.
في النهاية، قد يعني هذا أن مواقع الويب ستحتاج إلى تضمينها في مجموعات البيانات الخاصة بهذه الأدوات، لضمان ظهورها في الاستعلامات ذات الصلة، مما قد يشهد تحولًا كبيرًا مرة أخرى إلى السماح لأدوات الذكاء الاصطناعي بالوصول إلى المحتوى مرة أخرى في مرحلة ما.
وفي كلتا الحالتين، من المنطقي أن تتحرك Google بما يتماشى مع المناقشات الحالية حول تطوير الذكاء الاصطناعي واستخدامه، والتأكد من أنها تمنح مسؤولي الويب مزيدًا من التحكم في بياناتهم، قبل أن تدخل أي قوانين حيز التنفيذ.
وتشير جوجل أيضًا إلى أنه مع توسع تطبيقات الذكاء الاصطناعي، فإن ناشري الويب “سيواجهون التعقيد المتزايد لإدارة الاستخدامات المختلفة على نطاق واسع”، وأنها ملتزمة بالتفاعل مع مجتمعات الويب والذكاء الاصطناعي لاستكشاف أفضل طريقة للمضي قدمًا، الأمر الذي سيؤدي بشكل مثالي إلى تحسين النتائج من كلا المنظورين.
يمكنك معرفة المزيد حول كيفية منع أنظمة الذكاء الاصطناعي من Google من الزحف إلى موقعك هنا.