Поиски в Google станут еще более точными благодаря внедрению мультипоиска, комбинации поиска по тексту и изображениям с помощью Google Lens.

После запуска поиска изображений через Lens вы теперь можете задавать дополнительные вопросы или добавлять параметры к поиску, чтобы сузить результаты. Варианты использования Google для этой функции включают покупку одежды с определенным рисунком разных цветов или наведение камеры на колесо велосипеда, а затем ввод «как исправить», чтобы просмотреть руководства по ремонту велосипеда и видео. По данным Google, на данный момент лучший вариант использования множественного поиска — это результаты покупок.

В четверг компания запустит бета-версию этой функции для американских пользователей приложения Google на платформах Android и iOS. Просто щелкните значок камеры рядом со значком микрофона или откройте фотографию из своей галереи, выберите то, что вы хотите найти, и проведите вверх по результатам, чтобы увидеть кнопку «Добавить в поиск», где вы можете ввести дополнительный текст.

Это объявление является публичным тестом функции, которую поисковый гигант дразнил почти год; Google обсудил эту функцию, когда представил MUM на Google I/O 2021, а затем предоставил дополнительную информацию о ней в сентябре 2021 г. MUM, или многозадачная унифицированная модель, — это новая модель искусственного интеллекта Google для исследований, которая была представлена ​​на мероприятии. . год.

MUM заменил старую модель ИИ, BERT; Представления двунаправленных энкодеров из трансформаторов. MUM, по данным Google, примерно в тысячу раз мощнее, чем BERT.

(Изображение предоставлено Google)

Анализ: будет ли это стоить чего-нибудь?

Сейчас он находится в стадии бета-тестирования, но Google, безусловно, раскрутил MUM, когда он был анонсирован. Судя по тому, что мы видели, Lens, как правило, довольно хорошо идентифицирует объекты и переводит текст. Однако улучшения ИИ добавят ему еще одно измерение и могут сделать его более полезным инструментом для поиска нужной вам информации о том, что вы просматриваете прямо сейчас, а не общей информации о чем-то подобном.

Однако это вызывает вопросы о возможности точно указать, что вы хотите. Например, если вы видите диван с ярким рисунком, но предпочитаете, чтобы он был стулом, сможете ли вы разумно найти то, что ищете? Это будет в физическом магазине или в интернет-магазине, таком как WayFair? Поиски в Google часто могут выдавать неточные физические данные о близлежащих магазинах. Становятся ли они лучше?

У нас много вопросов, но ответы на них, вероятно, будут получены только тогда, когда люди начнут использовать мультипоиск. В конце концов, природа ИИ — улучшаться по мере использования.

Поделиться