متى”https://www.wired.com/2017/05/google-lens-turns-camera-search-box/”>تم تقديم Google Lens في عام 2017، حققت ميزة البحث إنجازًا كان يبدو منذ وقت ليس ببعيد وكأنه نوع من الخيال العلمي: قم بتوجيه كاميرا هاتفك نحو كائن ما ويمكن لـ Google Lens التعرف عليه، وإظهار بعض السياق، وربما يسمح لك بشرائه. لقد كانت طريقة جديدة للبحث، لا تتضمن كتابة أوصاف الأشياء التي تراها أمامك بشكل محرج.
وأظهرت عدسة أيضا كيف”https://www.wired.com/story/5-future-scenarios-google-lens-anniversary/”> خططت Google لاستخدام أدوات التعلم الآلي والذكاء الاصطناعي الخاصة بها لضمان ظهور محرك البحث الخاص به على كل سطح ممكن. نظرًا لأن Google تستخدم بشكل متزايد نماذج الذكاء الاصطناعي التوليدية الأساسية الخاصة بها من أجل”https://www.wired.com/story/google-io-end-of-google-search/”> إنشاء ملخصات للمعلومات واستجابة لعمليات البحث النصية، فقد تطور البحث المرئي في Google Lens أيضًا. والآن تقول الشركة إن Lens، التي تدير حوالي 20 مليار عملية بحث شهريًا، ستدعم المزيد من طرق البحث، بما في ذلك عمليات البحث عبر الفيديو والوسائط المتعددة.
تعديل آخر على Lens يعني ظهور المزيد من السياق للتسوق في النتائج. ليس من المستغرب أن يكون التسوق أحد حالات الاستخدام الرئيسية لـ Lens؛ لدى Amazon وPinterest أيضًا أدوات بحث مرئية مصممة لتحفيز المزيد من عمليات الشراء. ابحث عن الأحذية الرياضية الخاصة بصديقك في Google Lens القديمة، وربما تظهر لك مجموعة من العناصر المشابهة. في الإصدار المحدث من Lens، تقول Google إنها ستعرض المزيد من الروابط المباشرة للشراء ومراجعات العملاء ومراجعات الناشرين وأدوات التسوق المقارنة.
أصبح البحث بالعدسة الآن متعدد الوسائط، وهي كلمة رائجة في الذكاء الاصطناعي هذه الأيام، مما يعني أنه يمكن للأشخاص الآن البحث باستخدام مجموعة من مدخلات الفيديو والصور والمدخلات الصوتية. بدلاً من توجيه كاميرا هواتفهم الذكية نحو كائن ما، والنقر على نقطة التركيز على الشاشة، وانتظار تطبيق Lens للحصول على النتائج، يمكن للمستخدمين توجيه العدسة واستخدام الأوامر الصوتية في نفس الوقت، على سبيل المثال، “أي نوع من الأشياء؟” الغيوم تلك؟” أو “ما هي ماركة الأحذية الرياضية وأين يمكنني شراؤها؟”
ستبدأ Lens أيضًا في العمل على التقاط الفيديو في الوقت الفعلي، مما يأخذ الأداة خطوة أبعد من تحديد الكائنات في الصور الثابتة. إذا كان لديك مشغل أسطوانات معطلاً أو رأيت ضوءًا وامضًا على جهاز معطل في المنزل، فيمكنك التقاط مقطع فيديو سريع من خلال Lens، ومن خلال نظرة عامة إبداعية بتقنية الذكاء الاصطناعي، راجع النصائح حول كيفية إصلاح العنصر.
تم الإعلان عن هذه الميزة لأول مرة في I/O، وتعتبر هذه الميزة تجريبية ومتاحة فقط للأشخاص الذين اشتركوا في مختبرات بحث Google، كما يقول راجان باتيل، موظف Google البالغ من العمر 18 عامًا والمؤسس المشارك لشركة Lens. يتم طرح ميزات Google Lens الأخرى، والوضع الصوتي والتسوق الموسع، على نطاق أوسع.
تعتبر ميزة “فهم الفيديو”، كما تسميها جوجل، مثيرة للاهتمام لعدة أسباب. بينما يعمل حاليًا مع مقاطع الفيديو التي تم التقاطها في الوقت الفعلي، إذا قامت Google بتوسيعها لتشمل مقاطع الفيديو الملتقطة أو عندما تقوم بذلك، فمن المحتمل أن تصبح مستودعات مقاطع الفيديو الكاملة – سواء في ألبوم الكاميرا الخاص بالشخص أو في قاعدة بيانات ضخمة مثل Google – قابلة لوضع علامات عليها وقابلة للتسوق بشكل كبير.
الاعتبار الثاني هو أن ميزة هذه العدسة”https://www.wired.com/story/google-io-astra-multimodal-answer-chatgpt/”>يشترك في بعض الخصائص مع مشروع Google Astra، والذي من المتوقع أن يكون متاحًا في وقت لاحق من هذا العام. تستخدم Astra، مثل Lens، مدخلات متعددة الوسائط لتفسير العالم من حولك من خلال هاتفك. كجزء من عرض Astra التجريبي هذا الربيع، عرضت الشركة زوجًا من النظارات الذكية النموذجية.
بشكل منفصل،”https://www.wired.com/story/meta-orion-glasses-augmented-reality-mark-zuckerberg/”>لقد أحدثت Meta نجاحًا كبيرًا برؤيتها طويلة المدى لمستقبل الواقع المعزز لدينا، والذي يتضمن مجرد”https://www.wired.com/story/ray-ban-meta-smart-glasses-connect-2024/”> البشر يرتدون النظارات الحمقاء يمكنها تفسير العالم من حولهم بذكاء وإظهار واجهات ثلاثية الأبعاد لهم. جوجل، بالطبع، حاولت بالفعل تحقيق هذا المستقبل”https://www.wired.com/story/google-glass-reasonable-expectation-of-privacy/”> نظارات جوجل (والتي تستخدم تقنية مختلفة جذريًا عن تقنية Meta الأخيرة). هل تعتبر ميزات Lens الجديدة، إلى جانب Astra، بمثابة امتداد طبيعي لنوع جديد من النظارات الذكية؟