Machine Learning do Google faz degustação e identificação de ramen

Um cientista de dados usou modelos de aprendizado de máquina e AutoML Vision para classificar tigelas de ramen e identificar a loja exata em que cada tigela é feita, sendo ao todo 41 lojas, com 95% de precisão. Kenji Doi, que já havia construído um modelo de aprendizado de máquina para classificar o ramen, quis ver se o AutoML Vision poderia fazer isso de forma mais eficiente e comprovou suas teorias.
O AutoML Vision cria modelos de ML (Machine Learning) personalizados automaticamente, que ajudam a identificar padrões nas imagens para, por exemplo, classificar animais em estado selvagem ou reconhecer tipos de produtos para melhorar uma loja online ou, nesse caso, classificar os ramen. O usuário não precisa ser um cientista de dados para saber como usá-lo, basta enviar imagens bem marcadas e clicar em um botão. No caso, Kenji compilou um conjunto de 48.000 fotos de tigelas de sopa dos locais de Ramen Jiro, junto com etiquetas para cada loja, e as enviou para a AutoML Vision.

O modelo levou cerca de 24 horas para treinar automaticamente, embora um modo “básico” menos preciso tenha um modelo pronto em apenas 18 minutos. Os resultados foram positivos, já que  o modelo de Kenji obteve 94,5% de precisão na previsão da loja apenas pelas fotos.

Mesmo projetado para pessoas sem um extenso conhecimento em ML, o AutoML Vision também consegue acelerar os processos para os especialistas. Construir um modelo para a classificação de ramen a partir do zero levaria um tempo maior, com exigência de etapas como a rotulagem, o ajuste de hiperparâmetro, tentativas com diferentes arquiteturas de redes neurais e até execuções de treinamento com falhas. “Com o AutoML Vision, um cientista de dados não precisaria gastar muito tempo treinando e ajustando um modelo para obter os melhores resultados. Isso significa que as empresas podem dimensionar seu trabalho de inteligência artificial mesmo com um número limitado de cientistas de dados”, afirma Kenji.

Certamente, a forma como o AutoML detecta as diferenças no ramen não é pelo sabor. A primeira hipótese de Kenji de como o modelo  funcionava era que estava olhando para a cor, a forma da tigela ou mesa. Porém, sua nova teoria é que o modelo é preciso o suficiente para distinguir diferenças muito sutis entre os cortes da carne ou o modo como as coberturas são servidas. Ele planeja continuar experimentando o AutoML para ver se suas teorias são verdadeiras. Soa como um projeto que pode envolver mais do que algumas tigelas de ramen.

Deixe um comentário

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.