El nuevo modelo de machine learning será capaz de predecir correctamente búsquedas y reconocer de manera eficaz los elementos de una escena
Como parte del evento Search On, Google revelo una gran variedad de novedades que llegarán a las búsquedas dentro de la plataforma y entre lo más destacado se presentó una serie de mejoras para la herramienta Google Lens de búsqueda por imágenes.
Google Lens es una herramienta de búsqueda visual que recientemente ha estado disponible en dispositivos Android y que utiliza tecnología de reconocimiento visual para comprender qué aparece en fotos para luego poder encontrar resultados similares en internet, o al menos eso era lo que hacía hasta ahora.
La compañía reveló un nuevo modelo de machine learning que la herramienta empezará a utilizar llamado MUM, o Modelo Unificado Multitarea, el cual puede recoger información de formatos más allá del texto, incluidas imágenes, audio y video, además de que puede trabajar con datos en 75 distintos lenguajes y en el futuro posiblemente más.
La integración de esta tecnología de inteligencia artificial permitirá una nueva serie de funciones para la herramienta de Google Lens que hasta ahora eran imposibles. Una de las novedades es la posibilidad de hacer preguntas relacionadas a una imagen, lo cual puede ser muy útil en casos de no conocer el nombre de un objeto o necesitar encontrar ítems de la misma referencia.
La compañía presentó un ejemplo en el que se tomaba la foto de un componente de bicicleta y el usuario solo escribía la pregunta “cómo reparar”, a lo que inmediatamente aparecen opciones solucionando el problema y ofreciendo el nombre del objeto.
Además de los resultados relacionados, ahora la herramienta también presentará una integración directa con contenido de la red, lo que significa que, si una persona está consultando sobre una prenda de vestir o un aparato electrónico, el listado para la compra del producto específico también aparecerá disponible en la búsqueda por imagen en tiempo real.
El modelo de machine learning usado tiene la habilidad de reconocer, registrar y aprender diversos datos de búsqueda que aparecen en las imágenes, por lo que es posible también usarlo para reconocer elementos distintivos de una imagen o escena. En el caso, por ejemplo, de hacer la búsqueda en una imagen de una película, la herramienta podrá reconocer tanto lo que esté principalmente destacado hasta la aparición de un animal en el fondo y cuál es su especie.
Además de las búsquedas por imagen, se espera que el modelo MUM pueda ayudar a renovar todas las búsquedas, incluyendo las ya tradicionales de texto. De la misma forma, el sistema irá aprendiendo a medida que se continúe utilizando, lo que permitirá contenido relacionado mejor distribuido y resultados más inteligentes.
Las nuevas funciones de Google Lens tienen previsto su lanzamiento a lo largo de las próximas semanas junto a un nuevo diseño para la página de resultados de búsquedas por imágenes. La compañía también anunció que más “mejoras visuales” estarán llegando en los meses que se avecinan.
Fuente: Infobae