Machine Learning do Google faz degustação e identificação de ramen

Um cientista de dados usou modelos de aprendizado de máquina e AutoML Vision para classificar tigelas de ramen e identificar a loja exata em que cada tigela é feita, sendo ao todo 41 lojas, com 95% de precisão. Kenji Doi, que já havia construído um modelo de aprendizado de máquina para classificar o ramen, quis ver se o AutoML Vision poderia fazer isso de forma mais eficiente e comprovou suas teorias.
O AutoML Vision cria modelos de ML (Machine Learning) personalizados automaticamente, que ajudam a identificar padrões nas imagens para, por exemplo, classificar animais em estado selvagem ou reconhecer tipos de produtos para melhorar uma loja online ou, nesse caso, classificar os ramen. O usuário não precisa ser um cientista de dados para saber como usá-lo, basta enviar imagens bem marcadas e clicar em um botão. No caso, Kenji compilou um conjunto de 48.000 fotos de tigelas de sopa dos locais de Ramen Jiro, junto com etiquetas para cada loja, e as enviou para a AutoML Vision.

O modelo levou cerca de 24 horas para treinar automaticamente, embora um modo “básico” menos preciso tenha um modelo pronto em apenas 18 minutos. Os resultados foram positivos, já que  o modelo de Kenji obteve 94,5% de precisão na previsão da loja apenas pelas fotos.

Mesmo projetado para pessoas sem um extenso conhecimento em ML, o AutoML Vision também consegue acelerar os processos para os especialistas. Construir um modelo para a classificação de ramen a partir do zero levaria um tempo maior, com exigência de etapas como a rotulagem, o ajuste de hiperparâmetro, tentativas com diferentes arquiteturas de redes neurais e até execuções de treinamento com falhas. “Com o AutoML Vision, um cientista de dados não precisaria gastar muito tempo treinando e ajustando um modelo para obter os melhores resultados. Isso significa que as empresas podem dimensionar seu trabalho de inteligência artificial mesmo com um número limitado de cientistas de dados”, afirma Kenji.

Certamente, a forma como o AutoML detecta as diferenças no ramen não é pelo sabor. A primeira hipótese de Kenji de como o modelo  funcionava era que estava olhando para a cor, a forma da tigela ou mesa. Porém, sua nova teoria é que o modelo é preciso o suficiente para distinguir diferenças muito sutis entre os cortes da carne ou o modo como as coberturas são servidas. Ele planeja continuar experimentando o AutoML para ver se suas teorias são verdadeiras. Soa como um projeto que pode envolver mais do que algumas tigelas de ramen.

YRCamargo

Compartilhar
Publicado por
YRCamargo

Publicações Recentes

TecToy anuncia pré-venda e preço do Zeenix Lite, seu primeiro PC portátil

A espera pelos detalhes de lançamento do primeiro PC portátil da TecToy acabou! A Zeenix,…

2 horas ago

Black Friday Samsung oferece ecossistema inteligente com benefícios de AI no dia a dia

A Samsung disponibiliza, nesta Black Friday 2024, dispositivos que integram recursos de AI para proporcionar…

4 horas ago

Roku chega a CCXP 2024 pelo terceiro ano consecutivo

O maior evento de cultura pop do mundo dá as boas-vindas, pelo terceiro ano consecutivo,…

6 horas ago

CCXP24: Warner Bros. Pictures anuncia exibição exclusiva de O Senhor dos Anéis: A Guerra dos Rohirrim durante a Spoiler Night

Após exatos 10 anos da exibição de O Hobbit – A Batalha dos Cinco Exércitos…

7 horas ago

3 dicas para discutir cibersegurança com os alunos

À medida que o mundo se torna cada vez mais conectado, situações antes restritas aos…

8 horas ago