O modelo levou cerca de 24 horas para treinar automaticamente, embora um modo “básico” menos preciso tenha um modelo pronto em apenas 18 minutos. Os resultados foram positivos, já que o modelo de Kenji obteve 94,5% de precisão na previsão da loja apenas pelas fotos.
Mesmo projetado para pessoas sem um extenso conhecimento em ML, o AutoML Vision também consegue acelerar os processos para os especialistas. Construir um modelo para a classificação de ramen a partir do zero levaria um tempo maior, com exigência de etapas como a rotulagem, o ajuste de hiperparâmetro, tentativas com diferentes arquiteturas de redes neurais e até execuções de treinamento com falhas. “Com o AutoML Vision, um cientista de dados não precisaria gastar muito tempo treinando e ajustando um modelo para obter os melhores resultados. Isso significa que as empresas podem dimensionar seu trabalho de inteligência artificial mesmo com um número limitado de cientistas de dados”, afirma Kenji.
Certamente, a forma como o AutoML detecta as diferenças no ramen não é pelo sabor. A primeira hipótese de Kenji de como o modelo funcionava era que estava olhando para a cor, a forma da tigela ou mesa. Porém, sua nova teoria é que o modelo é preciso o suficiente para distinguir diferenças muito sutis entre os cortes da carne ou o modo como as coberturas são servidas. Ele planeja continuar experimentando o AutoML para ver se suas teorias são verdadeiras. Soa como um projeto que pode envolver mais do que algumas tigelas de ramen.