A NVIDIA e a Hugging Face anunciam uma parceria que colocará a supercomputação de IA generativa ao alcance de milhões de desenvolvedores que constroem grandes modelos de linguagem (LLMs) e outras aplicações avançadas de IA.
Fornecendo aos desenvolvedores acesso à supercomputação de IA NVIDIA DGX Cloud dentro da plataforma Hugging Face para treinar e ajustar modelos avançados de IA, a colaboração ajudará a turbinar a adoção da indústria de IA generativa usando LLMs personalizados com dados de negócios para aplicações específicas do setor, incluindo chatbots inteligentes, pesquisa e resumo.
“Pesquisadores e desenvolvedores estão no centro da IA generativa que está transformando todos os setores”, diz Jensen Huang, fundador e CEO da NVIDIA. “A Hugging Face e a NVIDIA estão conectando a maior comunidade de IA do mundo com a plataforma de computação de IA da NVIDIA nas principais nuvens do mundo. Juntos, a computação de IA da NVIDIA está a apenas um clique de distância para a comunidade Hugging Face.”
Como parte da colaboração, a Hugging Face oferecerá um novo serviço – chamado Training Cluster as a Service – para simplificar a criação de modelos de IA generativos novos e personalizados para a empresa. Com tecnologia NVIDIA DGX Cloud, o serviço estará disponível nos próximos meses.
“As pessoas ao redor do mundo estão fazendo novas conexões e descobertas com ferramentas generativas de IA, e ainda estamos apenas nos primeiros dias dessa mudança tecnológica”, reforça Clément Delangue, cofundador e CEO da Hugging Face. “Nossa colaboração trará a supercomputação de IA mais avançada da NVIDIA para Hugging Face para permitir que as empresas tomem seu destino de IA em suas próprias mãos com código aberto e com a velocidade de que precisam para contribuir com o que está por vir.”
Superalimentando a personalização e o treinamento do LLM dentro da Hugging Face
A plataforma Hugging Face permite que os desenvolvedores criem, treinem e implantem modelos de IA de última geração usando recursos de código aberto. Mais de 15.000 organizações usam a Hugging Face e sua comunidade compartilhou mais de 250.000 modelos e 50.000 conjuntos de dados.
A integração do DGX Cloud com a Hugging Face trará acesso com um clique à plataforma de supercomputação de IA de vários nós da NVIDIA. Com a DGX Cloud, os usuários da Hugging Face poderão se conectar à supercomputação NVIDIA AI, fornecendo o software e a infraestrutura necessários para treinar e ajustar rapidamente os modelos de base com dados exclusivos para impulsionar uma nova onda de desenvolvimento empresarial de LLM. Com o Training Cluster as a Service, desenvolvido pela DGX Cloud, as empresas poderão aproveitar seus dados únicos para Hugging Face para criar modelos exclusivamente eficientes em tempo recorde.
DGX Cloud acelera o desenvolvimento e a personalização de modelos massivos
Cada instância do DGX Cloud apresenta oito GPUs NVIDIA H100 ou A100 Tensor Core de 80 GB para um total de 640 GB de memória GPU por nó. O NVIDIA Networking fornece uma estrutura de alto desempenho e baixa latência que garante que as cargas de trabalho possam ser dimensionadas em clusters de sistemas interconectados para atender aos requisitos de desempenho de cargas de trabalho avançadas de IA.
“A parceria tem totalmente sinergia com a NVIDIA já que, cada vez mais, temos nos dedicado no desenvolvimento de serviços de nuvem voltados para treinamento de IA”, reforça Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.
O suporte de especialistas da NVIDIA está incluído no DGX Cloud para ajudar os clientes a otimizar seus modelos e resolver rapidamente os desafios de desenvolvimento.
A infraestrutura DGX Cloud é hospedada pelos principais parceiros provedores de serviços em nuvem da NVIDIA.
Disponibilidade
Espera-se que a integração NVIDIA DGX Cloud com Hugging Face esteja disponível nos próximos meses.
Assista ao keynote do SIGGRAPH de Huang para saber mais sobre a NVIDIA DGX Cloud.