الائتمان: Aria Sandi Hasim/Shutterstock
قد لا تكون على دراية بالعبارة “peanut butter platform heels” ولكن يبدو أنه ينشأ من تجربة علمية ، حيث تحولت زبدة الفول السوداني إلى بنية تشبه الماس ، تحت ضغط مرتفع للغاية-ومن ثم “heels” مرجع.
إلا أن هذا لم يحدث أبدا. هذه العبارة هراء كامل ، ولكن تم منحها تعريفًا وخلفيًا من قبل Google AI عندما طلب الكاتب ميغان ويلسون أانستاسيوس ، وفقًا لما ذكرته”https://www.threads.com/@writtenbymeaghan/post/DIqwP0RJqpH/oh-youre-going-to-love-this-if-you-type-any-nonsensical-made-up-phrase-into-goog” الهدف=”_blank” العنوان=”open in a new window” rel=”noopener”> هذا المنشور المواضيع (الذي يحتوي على بعض أمثلة مسلية أخرى).
التقط الإنترنت هذا وركض معه. فيما يبدو، “you can’t lick a badger twice” يعني أنه لا يمكنك خداع شخص ما مرتين (“https://bsky.app/profile/gregjenner.bsky.social/post/3lnhxkdywzc2m” الهدف=”_blank” العنوان=”open in a new window” rel=”noopener”> بلوزكي) ، “a loose dog won’t surf” يعني أن هناك شيئًا ما من غير المرجح أن يحدث (“https://www.wired.com/story/google-ai-overviews-meaning/” الهدف=”_blank” العنوان=”open in a new window” rel=”noopener”> سلكية)، و “the bicycle eats first” هي وسيلة للقول إنه يجب عليك تحديد أولويات التغذية الخاصة بك عند التدريب لركوب الدراجات (“https://futurism.com/google-ai-overviews-fake-idioms” الهدف=”_blank” العنوان=”open in a new window” rel=”noopener”> المستقبل).
جوجل ، ومع ذلك ، ليس مسليا. كنت حريصًا على تجميع مجموعتي الخاصة من عبارات الهراء والمعاني الواضحة ، ولكن يبدو أن الحيلة لم تعد ممكنة: سترفض Google الآن إظهار نظرة عامة على الذكاء الاصطناعي أو تخبرك أنك مخطئ إذا حاولت الحصول على شرح لعبارة لا تنفسي.
إذا ذهبت إلى chatbot AI الفعلي ، فهذا مختلف قليلاً. أجرت بعض الاختبارات السريعة مع الجوزاء ، كلود ، و chatgpt ، وتحاول الروبوتات شرح هذه العبارات منطقيا ، مع الإشارة أيضًا إلى أنها تبدو غير منطقية ، ويبدو أنها لا تبدو شائعة. هذا نهج أكثر دقة ، مع السياق الذي كان ينقص من نظرة عامة على الذكاء الاصطناعي.
لاحظ شخص ما على المواضيع أنه يمكنك كتابة أي جملة عشوائية في Google ، ثم أضف “معنى” بعد ذلك ، وستحصل على شرح منظمة العفو الدولية لمصطلح أو عبارة شهيرة قمت بها للتو. هنا لي[image or embed]
– جريج جينر (“https://bsky.app/profile/did:plc:knlwbyvg36keh64h6awokbqx?ref_src=embed” الهدف=”_blank” العنوان=”open in a new window” rel=”noopener”>@gregjenner.bsky.social)”https://bsky.app/profile/did:plc:knlwbyvg36keh64h6awokbqx/post/3lnhxkdywzc2m?ref_src=embed” الهدف=”_blank” العنوان=”open in a new window” rel=”noopener”> 23 أبريل 2025 في 11:15
الآن ، لا تزال نظرة عامة على الذكاء الاصطناعي مصممة على أنها “experimental,” لكن معظم الناس لن يلاحظوا ذلك. سوف يفترضون أن المعلومات التي يرونها دقيقة وموثوقة ، مبنية على المعلومات المكسورة من مقالات الويب.
وعلى الرغم من أن مهندسي Google قد يكونوا قد ارتكبوا هذا النوع من الأخطاء ، إلا أنه يشبه إلى حد كبير”https://lifehacker.com/tech/googles-ai-still-recommending-glue-pizza” الهدف=”_blank”> الغراء على البيتزا في العام الماضي ، ربما لن يمر وقت طويل قبل ظهور مشكلة أخرى مماثلة. يتحدث عن بعض المشكلات الأساسية في الحصول على جميع معلوماتنا من الذكاء الاصطناعي ، بدلاً من المراجع التي كتبها البشر الفعليون.
ماذا يحدث؟
في الأساس ، تم تصميم نظرة عامة على منظمة العفو الدولية هذه لتوفير الإجابات وتوليف المعلومات حتى لو لم يكن هناك مطابقة دقيقة لاستعلامك-وهو المكان الذي تبدأ فيه مشكلة التعريف هذه. ربما ليست ميزة الذكاء الاصطناعى هي أفضل قاضٍ لما هو عليه وليس معلومات موثوقة على الإنترنت.
تبحث لإصلاح مشكلة الكمبيوتر المحمول؟ في السابق ، ستحصل على قائمة بالروابط الزرقاء من Reddit ومنتديات الدعم المختلفة (و”https://lifehacker.com/tech/microsoft-has-a-fix-for-windows-latest-blue-screen-problem” الهدف=”_blank”> ربما Lifehacker) ، ولكن مع نظرة عامة على الذكاء الاصطناعي ، تمتص Google كل ما يمكن أن تجده على تلك الروابط ويحاول تصحيح إجابة ذكية معًا – حتى لو لم يواجه أحد مشكلة محددة تسأل عنها. في بعض الأحيان قد يكون ذلك مفيدًا ، وأحيانًا قد ينتهي بك المطاف”https://www.theverge.com/2024/5/14/24156729/googles-gemini-video-search-makes-factual-error-in-demo” الهدف=”_blank” العنوان=”open in a new window” rel=”noopener”> جعل مشاكلك أسوأ.