Foi anunciado durante o Google I/O, conferência de programadores organizada anualmente pelo Google em São Francisco, que o Google Lens agora estará disponível diretamente no aplicativo da câmera em dispositivos compatíveis, além de três novidades que permitem que o Lens responda a mais perguntas de forma mais rápida.
A tecnologia já está disponível em inglês e estará disponível em português até o final do mês. Com ela os usuários podem usar a própria câmera para interagir com o mundo ao seu redor como:
- Reconhecimento de textos – Copiar texto de receitas, códigos de vale-presente ou senhas de Wi-Fi, em seu telefone. Ou, por exemplo, supondo que você vá a um restaurante e queira saber qual é determinado prato no cardápio, é só usar o Google Lens para ver uma foto dele.
- Combinação de estilo – se um item de decoração ou uma peça de roupa chamar sua atenção, você poderá abrir o Lens e obter informações sobre esse item específico, como resenhas, e também ver as coisas em um estilo semelhante ao que você gostou.
- A lente agora funciona em tempo real – ela é capaz de divulgar informações de forma proativa instantaneamente e linkar às coisas que você vê. Você poderá navegar pelo mundo ao seu redor apenas apontando sua câmera.
Até então o Google Lens estava disponível apenas através do aplicativo Google Fotos, porém a partir de agora, conforme anunciado no evento, estará disponível diretamente no aplicativo da câmera em dispositivos compatíveis da LG, Motorola, Xiaomi, Sony Mobile, HMD/Nokia, Transsion, TCL, OnePlus, BQ, Asus e, claro o Google Pixel. Também anunciamos três atualizações que permitem que o Lens responda a mais perguntas, mais coisas e mais rapidamente:
Primeiro, a seleção inteligente de texto conecta as palavras vistas com as respostas e ações necessárias. É possível copiar e colar textos do mundo real, como receitas, códigos de vale-presente ou senhas de Wi-Fi, no telefone. O Lens ajuda a entender uma página mostrando informações e fotos relevantes. Digamos que estamos em um restaurante e vemos o nome de um prato que não reconhecemos. O Lens nos mostrará uma foto para termos uma ideia melhor. Isso requer não apenas o reconhecimento de formas de letras, mas também o significado e o contexto por trás das palavras.
Em segundo lugar, às vezes nossa pergunta não é: “o que é exatamente isso?“, Mas sim “como são é isso?“. Agora, com a combinação de estilo, se um item de decoração ou decoração chamar a nossa atenção, podemos abrir o Lens e não apenas obter informações sobre esse item específico, como resenhas, mas ver as coisas em um estilo semelhante à aparência desejada.
Em terceiro lugar, o Lens agora funciona em tempo real. O recurso será capaz de divulgar informações de forma proativa instantaneamente e ancorá-las às coisas que vemos. Agora podemos navegar pelo mundo ao nosso redor apenas apontando a câmera. Isso só é possível com o aprendizado de máquina de última geração, usando inteligência no dispositivo e TPUs em nuvem, para identificar bilhões de palavras, frases, lugares e coisas em uma fração de segundo.
Assim como a voz, vemos a visão como uma mudança fundamental na computação e uma jornada de vários anos. Todos estes recursos do Google Lens começarão a ser lançados nas próximas semanas.