تستكشف Google بدائل أو طرقًا تكميلية للتحكم في الزحف والفهرسة بما يتجاوز معيار 30 عامًا لبروتوكول robots.txt. “نعتقد أن الوقت قد حان لمجتمعات الويب والذكاء الاصطناعي لاستكشاف وسائل إضافية يمكن قراءتها آليًا لاختيار ناشر الويب والتحكم في حالات استخدام الذكاء الاصطناعي والبحث الناشئة” ، Google كتب.
الانخراط مع المجتمع. قالت Google إنها تدعو أعضاء من الويب ومجتمعات الذكاء الاصطناعي للمناقشة في بروتوكول جديد. قالت Google إنها “تبدأ نقاشًا عامًا” ، مع “مجموعة واسعة من الأصوات عبر ناشري الويب والمجتمع المدني والأوساط الأكاديمية والمزيد من المجالات من جميع أنحاء العالم.
توقيت. قالت Google إن هذه المناقشات تجري “للانضمام إلى المناقشة ، وسنقوم بجمع المهتمين بالمشاركة خلال” الأشهر المقبلة “. لذلك لا شيء يحدث في وقت قريب جدًا ولا شيء يتغير غدًا.
مشكلة المحتوى المحمي بنظام حظر الاشتراك غير المدفوع. مؤخرًا ، افتح AI قام بتعطيل ميزة التصفح باستخدام Bing في ChatGPT بعد أن كان قادرًا على الوصول إلى المحتوى المحمي بنظام حظر الاشتراك غير المدفوع دون إذن الناشر. هذا هو أحد الأسباب العديدة التي تجعل Google يبحث عن بدائل لبروتوكول robots.txt.
لماذا نهتم. لقد أصبحنا جميعًا متهمين بالسماح للبوت بالوصول إلى مواقعنا الإلكترونية باستخدام ملف robots.txt وأشكال أخرى من البيانات المنظمة الأحدث. لكننا ربما نبحث عن طرق جديدة في المستقبل. ما قد تبدو عليه هذه الأساليب والبروتوكولات غير معروف الآن ولكن المناقشة جارية.
جديد في محرك البحث لاند
عن المؤلف
باري شوارتز محرر مساهم في Search Engine Land وعضو في فريق البرمجة لأحداث SMX. هو يمتلك راستي بريك، وهي شركة استشارات ويب مقرها نيويورك. هو أيضا يركض محرك البحث الطاولة المستديرة، وهي مدونة بحث شائعة حول موضوعات التسويق عبر محرك البحث المتقدمة جدًا. يمكن اتباع باري على Twitter هنا.