A inteligência artificial está avançando como nunca, com experimentos inovadores sendo levados à prática. Essa evolução, porém, levanta algumas dúvidas para 2025: O que funciona? E o que realmente vale a pena? Enquanto os desenvolvedores de IA trabalham em um próximo lançamento, as empresas ainda lutam com a integração de dados e tecnologias. Os especialistas da Neo4j analisam quais critérios devem ser decisivos para o sucesso da IA, próximos passos da tecnologia, preocupações e o papel dos grafos nesse caminho.
Este ano, observamos milhares de usuários conversando diariamente com chatbots. Em 2025, espera-se que o Agentic AI tenha uma história de sucesso semelhante à da GenAI e passe a assumir ainda mais controle de fluxos de trabalho e tarefas de rotina do início ao fim. Esses agentes podem operar de forma dinâmica e planejada, alterar ações dependendo do contexto e delegar subtarefas a outras ferramentas.
Apesar de ser tentador, a terceirização de tarefas rotineiras com o Agentic AI também acende um alerta. Como eles podem ser controlados e domados em uma emergência? Quem assume a responsabilidade se algo der errado? Uma coisa é pedir a um chatbot para sugerir uma resposta a um e-mail. Outra é quando a IA compõe e envia a mensagem para o parceiro de negócios por conta própria, especialmente porque os agentes cometem erros e até se distraem. Portanto, ainda é necessário definir critérios sobre como verificar a execução correta e como reagir em caso de erro.
Assim como a GenAI, os LLMs (Grandes Modelos de Linguagem) geram respostas, mas levam muito mais tempo para raciocinar sobre a pergunta de uma determinada maneira. Os modelos de IA com raciocínio consideram opções, esboçam soluções e as descartam antes de apresentar uma sugestão. Sim, isso leva mais tempo, mas a qualidade dos resultados também é significativamente maior. O modelo de Reasoning AI do OpenAI, o1, chegou a ficar entre os 500 melhores da Olimpíada de Matemática dos EUA (AIME) com esses recursos
No entanto, a IA de raciocínio tem um problema: a “cadeia de pensamento” está oculta no LLM e não pode ser vista de fora. O chamado “raciocínio em voz alta” da IA, portanto, ocorre de fato em silêncio e prejudica significativamente sua confiabilidade. O aumento do tempo de execução e dos custos também é mais adequado para tarefas de pesquisa individuais do que para usuários finais
Embora a Agentic e Reasoning AI’s já sejam uma realidade, a inteligência artificial geral (AGI) continua sendo ficção científica, pelo menos por enquanto. Ainda há um longo e hipotético caminho a percorrer até que a inteligência artificial alcance ou supere a inteligência humana. Por mais impressionante que pareça o salto da IA nos últimos anos, ainda há tarefas muito simples em que a IA apresenta falhas. Além disso, não está claro se o caminho que o desenvolvimento da IA está trilhando atualmente levará à AGI, ou se esse tipo de inteligência geral superior é necessário e desejado. Em muitos casos, será mais uma questão de especialização da IA.
Em 2025, muitas empresas devem se preocupar em adotar o uso eficaz das tecnologias de IA existentes. A integração não é apenas uma questão de conformidade e especialização, mas também uma questão de custo. Assim que a IA for usada em grande escala, ela não será exatamente barata (assim como a nuvem). Além disso, os LLMs treinados em dados publicamente disponíveis criam pouco espaço para se diferenciarem de outros usuários e concorrentes no mercado. Portanto, as empresas estão cada vez mais voltando sua atenção para modelos de linguagem pequenos, que são precisamente adaptados a casos de uso e necessidades individuais e são continuamente refinados e otimizados. Essa, inclusive, tem se mostrado como uma das maiores vantagens do SLM – os modelos podem ser controlados e validados de maneiras mais assertivas (por exemplo, por meio de grafos de conhecimento). O treinamento com dados de alta qualidade é mais rápido e sustentável, já que exige menos de 5% do consumo de energia dos LLMs.
O desempenho da IA também depende da capacidade das empresas em conectar e enriquecer seus próprios conjuntos de dados internos, portanto, a qualidade deles é fundamental. Na maioria dos casos, as empresas têm dados estruturados suficientes que já representam a essência de seus negócios – por mais importantes que eles sejam, porém, representam apenas 10% dos dados disponíveis. Os outros 90% são dados não estruturados (por exemplo, documentos, vídeos, imagens). A GenAI, o processamento de linguagem natural e a tecnologia de grafos podem ajudar nessa estruturação.
A IA interage com pessoas, máquinas e outros modelos de IA. Claro, em um chatbot, a IA responde em linguagem natural. Mas o mundo da tecnologia é multilíngue, outros sistemas usam outras linguagens (por exemplo, linguagens de consulta, código de API) e, no futuro, os modelos de IA também se comunicarão cada vez mais entre si. Quanto maior for a integração da IA às infraestruturas de TI existentes, mais importante será o desenvolvimento de interfaces de linguagem adequadas. No ambiente de tecnologia de grafos, por exemplo, os LLMs servem como intérpretes para traduzir a linguagem de consulta Cypher em linguagem natural (Text2Cypher). A longo prazo, há o questionamento em saber se haverá a necessidade de criar uma linguagem padrão que garanta essa padronização, ou se é justamente a flexibilidade das linguagens que representa uma grande vantagem no uso de LLMs.
Como uma rede completa de informações, os grafos de conhecimento oferecem uma representação ideal dos dados em todos os níveis, sejam eles estruturados ou não estruturados. O GraphRAG é um bom exemplo disso. Nos aplicativos de GenAI, o RAG fornece uma fonte adicional de dados específicos do domínio na forma de um grafo de conhecimento. Isso torna os resultados mais precisos, atualizados, explicáveis e transparentes, além de poderem responder a tipos diferenciados de perguntas complexas.
Um outro exemplo de compatibilidade de grafos com IA são as redes neurais de grafos (GNN). Essas redes neurais tentam resolver problemas particularmente difíceis. O Google DeepMind, por exemplo, vem trabalhando com GNNs há anos em vários projetos, incluindo uma previsão do tempo inteligente (GraphCast) ou um projeto de semicondutores com suporte de IA (AlphaChip). Em novembro de 2024, a empresa lançou a terceira versão do AlphaFold, um sistema de IA que pode prever com precisão a estrutura das proteínas e suas interações com outras biomoléculas.
Com potencial para ser considerada uma das maiores apostas da história dos negócios, os investimentos em IA estão longe de ter um fim, apesar de todo hype observado em 2024. No decorrer deste ano, vimos empresas de nuvem acelerarem seus investimentos e os provedores de IA alimentarem excessivamente seus modelos. A adoção e integração da IA, porém, ainda está desequilibrada: empresas lutam principalmente com requisitos regulatórios, falta de estratégias e a busca por casos de uso adequados. Os gastos com soluções e recursos de IA estão aumentando continuamente e pressionando os orçamentos internos, e os benefícios esperados dos investimentos levam tempo para aparecer. De acordo com o Gartner Hype Cycle, a solução milagrosa GenAI está a caminho do vale da desilusão e primeiro terá que provar o que realmente pode fazer no próximo ano.
A Veek - única operadora no país a oferecer assinatura gratuita com internet, ligações ilimitadas…
Nos últimos anos, os comércios físico e digital têm se entrelaçado cada vez mais, criando…
O Compare Games já tem data para voltar. Após um intervalo de quatro anos, a…
O fim de ano costuma ser um momento de descanso e viagem para muitas pessoas,…
por Regina Silva Ao longo dos últimos anos, vimos as salas de aula se transformarem,…
Às vésperas das festas de fim de ano, a Positivo Tecnologia apresenta uma seleção de…