IA tem evolução sem precedentes e promete ir ainda mais longe

26 de novembro de 2025

por Roberta Prescott

IA tem evolução sem precedentes e promete ir ainda mais longe

A evolução da inteligência artificial culminando na IA generativa e nos agentes tem sido algo sem precedentes na história científica, enfatizou o professor Anderson Soares do Centro de Excelência em IA da Universidade Federal de Goiás, ao palestrar em um evento do Itaú Unibanco para jornalistas. “Nada evoluiu tão rápido quanto a inteligência artificial. Eu desconheço em qualquer área da ciência uma evolução tão rápida”, assinalou.

 

Soares também destacou que IA é uma tecnologia que tem “um pé” na ciência e, no mundo inteiro, a aproximação de empresas privadas com institutos de ciência e tecnologia foi algo praticado até por necessidade de entender desafios de rotas e produtos.

 

A IA é uma tecnologia generalista que vem evoluindo a passos largos. “Embora estejamos falando de reasoning, isso começou agora e, quando conseguir quebrar uma pergunta em múltiplas etapas para produzir resposta, vai fazer coisas muito mais sofisticadas”, disse. “Também vejo o avanço da multimodalidade, porque o mundo é multimodal. O texto foi passo básico, depois vimos integração básica entre texto e áudios, mas precisamos integrar mais, porque nossas vidas são multimodais e as IAs ainda não são”, explicou.  

 

O Brasil construiu sua própria trajetória de evolução desses modelos “Há contribuições científicas que acontecem no Brasil, mas, quando se olha um comparativo, temos um volume e impacto menores”, pondera o professor. Ele explicou que os grandes modelos de linguagem brasileiros são mais de aplicações específicas por vertical, indústria. Isso porque, quanto mais generalista, mais complexo é o LLM.

 

“O uso eficiente da IA depende de contextos e de boas perguntas, porque ela foi treinada para concatenar as palavras que parecem fazer algum sentido na semântica da língua.” O prompt inaugurou uma era de como o usuário se desenvolve para provocar a IA, sendo necessário dar contexto, fazer uma descrição da tarefa e indicar o formato de como quer. “Perguntar bem se tornou fundamental”, acrescentou Soares.

 

De dois anos para cá, houve mais evolução. O LLM passou a fazer busca para dar a resposta à pergunta do usuário. Permitir que o LLM consulte dados com base na pergunta, agregando conteúdo mais relevante, levou a respostas enriquecidas. “Isso tem sido game changer, principalmente, no mercado corporativo, que tem feito isso com dados privados, dando documentos como parte da entrada e dando contexto”, disse Soares, que calcula, por cima, que esse modelo agregando dados privados seja responsável por uns 80% das aplicações corporativas.

 

Ao ir além do treinamento na internet, amplia-se a capacidade dos LLMs de produzir respostas mais adequadas. É o chamado RAG — retrieval augmented generation — técnica que aprimora LLMs combinando sua capacidade de geração de texto com a recuperação de informações de fontes externas e confiáveis.

 

A evolução dessa jornada leva aos agentes de IA, quando a inteligência artificial generativa passa a interpretar, decidir e executar tarefas a partir do comando do usuário; em uma resposta com ação. “Agente é um passo à frente da capacidade do LLM entender o que você está querendo e conectar com dados. E isso é um marco”, assinala Soares. Trata-se do “reasoning AI”, que tem sido traduzido como IA com capacidade de raciocínio e inaugura um novo momento da era digital.

 

Assim, o LLM treinado para concatenar palavras que fazem sentido evoluiu para prompt com contexto (RAG) e disso para algo mais poderoso, que é o agente. “É um conceito poderoso e ele só vai tomar ação, porque antes pode resolver o passo de entender a pergunta.” 
 

leia

também