الخدعة الغريبة والمفيدة التي يبدو أنها تقوم بإيقاف نتائج بحث Google AI
أليكس صور الأسهم/Shutterstock
تعمل Google تدريجياً على دمج الذكاء الاصطناعي للبحث لسنوات ، ولكن هذا تصاعد مع ظهور AI التوليدي الأخير. اعتبارا من أوائل عام 2025 ، مثل ميزات مثل”https://www.slashgear.com/1582103/google-ai-search-overview-us-launch-big-future-promises/” الهدف=”_blank”> نظرة عامة على منظمة العفو الدولية لنتائج بحث Googleمتوفرة الآن في أكثر من 100 دولة. بدلاً من تقديم صفحة تقليدية من نتائج البحث ، يتلقى المستخدمون الآن ملخصات تم إنشاؤها من الذكاء الاصطناعى والتي تجمع المعلومات من مصادر مختلفة. وفقًا لـ Google ، تعمل نتائج البحث التي تعمل بالطاقة الذاتي بشكل جيد بشكل خاص عندك “want to quickly understand information from a range of sources, including information from across the web.”
إعلان
على الرغم من أنه من المفيد في بعض المواقف ، يمكن أن تكون ملخصات الذكاء الاصطناعى مزعجة إلى حد ما عندما تكون موثوقيتها مشكوك فيها ، خاصة عندما تشغل نصف مساحة الشاشة مع كل بحث. ما هي الفائدة التي يفعلها حتى للتمرير من خلال النص الذي يحتمل أن يكون غير دقيق من الذكاء الاصطناعي عندما تريد قراءة وجهات نظر حقيقية من البشر الآخرين ، التي تتشكل من خلال تجاربهم الحية؟ لا عجب أن الجميع يلفون عمليات البحث الخاصة بهم “reddit” في هذه الأيام.
سيكون هذا أمرًا غير قضية إذا قدمت Google نظرة عامة على الذكاء الاصطناعي والميزات المشابهة اختياريًا ، لكنها تفتقر إلى الافتراضي دون أي وسيلة لإيقافها. ومع ذلك ، هناك خدعة غريبة لا تزال تعمل.
ديا تلفزيون/مصراع
اعتبارًا من يناير 2025 ، تتمثل أسهل طريقة لإيقاف نتائج بحث الذكاء الاصطناعي في إضافة الألفاظ النابية إلى استعلامات البحث الخاصة بك ، غريبًا كما قد يبدو ذلك. يبدو أن هذه الخدعة تدور على Tumblr ، لكننا تعلمنا أولاً عنها”https://bsky.app/profile/ninocipri.bsky.social/post/3lgxt246j422u” الهدف=”_blank”> مستخدم Bluesky Nino Cipri. دعنا نقول أنك تريد معرفة كيفية منع الكلب من الشخير بنفس القدر. إذا بحثت “how do I stop my dog from snoring,” ستواجه نظرة عامة على الذكاء الاصطناعى على Google. ولكن إذا بحثت “how do I stop my f**king dog from snoring” بدلاً من ذلك ، ستحصل على نتائج بحث Google قياسية ، كما في أيام ما قبل AI.
إعلان
تزيل هذه الخدعة أيضًا ميزات الذكاء الاصطناعي الأخرى من نتائج البحث ، مثل المقتطفات. على سبيل المثال ، إذا بحثت “What is SlashGear,” النتيجة الأولى هي مقتطف غير تابع لفريق تحرير Slashgear. ومع ذلك ، إذا بحثت عن “What is SlashGear f**k,” لا يوجد مقتطف-النتيجة الأولى هي رابط للصفحة الرئيسية لـ SlashGear ، لذلك يمكنك أن ترى بنفسك ما الذي نفعله ، بدلاً من الاعتماد على وصف طرف ثالث.
قد تجدر الإشارة إلى أن هناك طريقة أخرى أكثر تقنية”https://www.slashgear.com/1585025/how-to-remove-ai-from-google-search/” الهدف=”_blank”> قم بإزالة الذكاء الاصطناعي من عمليات البحث في Google في متصفح الكروم.
هل ستعمل هذه الخدعة دائمًا؟
تادا الصور/Shutterstock
من الواضح أنه من المستحيل التنبؤ بما إذا كانت إضافة الألفاظ النابية إلى استفسارات البحث الخاصة بك ستعمل إلى الأبد ، ولن يكون من غير المعقول افتراض أن Google ستستمر في تشجيع استخدام AI على المستخدمين على التنافس مع أدوات مثل chatgpt و”https://www.slashgear.com/1686143/perplexity-search-engine-explained-about-which-artificial-intelligence-company-behind/” الهدف=”_blank”> الحيرة. ومع ذلك ، لا بد أن تعمل الحيل مثل هذه لفترة من الوقت ، على الأقل إلى حد ما ، لأن شركات التكنولوجيا مطلوبة لتخفيف المحتوى ومنع سوء الاستخدام.
إعلان
إذا لم يفعلوا ذلك ، فسيكون هناك المزيد من قصص الرعب التي تظهر ذلك”https://www.slashgear.com/1532293/ai-horror-stories-serious-threat/” الهدف=”_blank”> منظمة العفو الدولية تشكل تهديدًا خطيرًا للمجتمع. منحت ، هناك مجتمعات كاملة على الإنترنت تتركز حولها “jailbreaking” نماذج اللغة الكبيرة وإجبارهم على انتهاك إرشادات السلامة الخاصة بهم ، ولكن هذه الأساليب غير موثوق بها وقصيرة الأجل بشكل عام بالنسبة للجزء الأكبر.
إذا كنت ترغب في اختبار ما إذا كان استخدام الألفاظ النابية “breaks” أدوات AI الأخرى ، حاول استخدامها أثناء التحدث مع ChatGPT. في معظم الحالات ، من المحتمل أن يرفض إنشاء استجابة وعرض رسالة خطأ مثل “This content may violate our usage policies,” مع رابط للسياسات المذكورة.