Categorias: Tech News

Machine Learning do Google faz degustação e identificação de ramen

Um cientista de dados usou modelos de aprendizado de máquina e AutoML Vision para classificar tigelas de ramen e identificar a loja exata em que cada tigela é feita, sendo ao todo 41 lojas, com 95% de precisão. Kenji Doi, que já havia construído um modelo de aprendizado de máquina para classificar o ramen, quis ver se o AutoML Vision poderia fazer isso de forma mais eficiente e comprovou suas teorias.
O AutoML Vision cria modelos de ML (Machine Learning) personalizados automaticamente, que ajudam a identificar padrões nas imagens para, por exemplo, classificar animais em estado selvagem ou reconhecer tipos de produtos para melhorar uma loja online ou, nesse caso, classificar os ramen. O usuário não precisa ser um cientista de dados para saber como usá-lo, basta enviar imagens bem marcadas e clicar em um botão. No caso, Kenji compilou um conjunto de 48.000 fotos de tigelas de sopa dos locais de Ramen Jiro, junto com etiquetas para cada loja, e as enviou para a AutoML Vision.

O modelo levou cerca de 24 horas para treinar automaticamente, embora um modo “básico” menos preciso tenha um modelo pronto em apenas 18 minutos. Os resultados foram positivos, já que  o modelo de Kenji obteve 94,5% de precisão na previsão da loja apenas pelas fotos.

Mesmo projetado para pessoas sem um extenso conhecimento em ML, o AutoML Vision também consegue acelerar os processos para os especialistas. Construir um modelo para a classificação de ramen a partir do zero levaria um tempo maior, com exigência de etapas como a rotulagem, o ajuste de hiperparâmetro, tentativas com diferentes arquiteturas de redes neurais e até execuções de treinamento com falhas. “Com o AutoML Vision, um cientista de dados não precisaria gastar muito tempo treinando e ajustando um modelo para obter os melhores resultados. Isso significa que as empresas podem dimensionar seu trabalho de inteligência artificial mesmo com um número limitado de cientistas de dados”, afirma Kenji.

Certamente, a forma como o AutoML detecta as diferenças no ramen não é pelo sabor. A primeira hipótese de Kenji de como o modelo  funcionava era que estava olhando para a cor, a forma da tigela ou mesa. Porém, sua nova teoria é que o modelo é preciso o suficiente para distinguir diferenças muito sutis entre os cortes da carne ou o modo como as coberturas são servidas. Ele planeja continuar experimentando o AutoML para ver se suas teorias são verdadeiras. Soa como um projeto que pode envolver mais do que algumas tigelas de ramen.

YRCamargo

Compartilhar
Publicado por
YRCamargo

Publicações Recentes

Diretor executivo da Roblox revela objetivo de representar 10% de toda a receita de games no mundo em discurso feito na 10ª Conferência Anual de Desenvolvedores Roblox

Roblox, a plataforma de conteúdo imersivo com 79,5 milhões de usuários ativos diariamente, anunciou hoje…

3 horas ago

motorola edge 50 fusion apresenta o poderoso sensor Sony LYTIATM 700c e câmera de 50 MP

Sabendo da importância da captura perfeita de momentos espontâneos, de fotos detalhadas de uma paisagem…

4 horas ago

Philips celebra 20 anos de Ambilight

O sistema Ambilight está celebrando 20 anos de sucesso como uma tecnologia verdadeiramente notável que…

5 horas ago

LG anuncia nova linha de Soundbars com imersão sonora sem igual

A LG acaba de renovar e expandir seu portfólio de soundbars com a chegada de…

3 dias ago

Muito além da automação, o que mais esperar das casas inteligentes?

O que antes era apenas uma realidade nos filmes românticos, de ação ou até mesmo…

3 dias ago

PUBG MOBILE revela mais detalhes sobre sua presença na Brasil Game Show 2024

PUBG MOBILE, um dos jogos mobile mais populares do mundo, estará presente na Brasil Game…

3 dias ago