Estudo do IMD propõe novo olhar sobre avaliação de modelos de IA

Pesquisa questiona métricas tradicionais usadas para medir o desempenho de sistemas de IA
09-02-2026 / ASCOM
IA Pesquisa
Daneide Cruz e Felipe Araújo

O professor Leonardo Brito, do Instituto Metrópole Digital (IMD/UFRN), publicou uma pesquisa que tem aprofundado o debate sobre um dos desafios centrais da Inteligência Artificial (IA) contemporânea: a forma como são avaliados os modelos de aprendizado contínuo. O trabalho, realizado em colaboração com pesquisadores da Missouri University of Science and Technology (EUA), questiona métricas amplamente utilizadas pela comunidade tecnológica e aponta a necessidade de abordagens mais refinadas para avaliar o desempenho desses sistemas ao longo do tempo.

O estudo foi apresentado durante a 12ª Conferência Internacional em Soft Computing & Machine Intelligence (ISCMI 2025), conferência realizada no Rio de Janeiro que reúne pesquisadores, profissionais e especialistas para discutir avanços e aplicações em Inteligência Artificial, Aprendizado de Máquina, Computação Bio-inspirada, Robótica e áreas afins.

O artigo recebeu o prêmio de melhor apresentação da sessão, reconhecimento que reforça a relevância do debate proposto pelos pesquisadores. Intitulado “The Need for More Nuanced Metrics of Catastrophic Forgetting”, o paper discute limitações na maneira como o chamado “esquecimento catastrófico” tem sido identificado em modelos de inteligência artificial ao redor do mundo.

Esquecimento catastrófico

O aprendizado contínuo ocorre quando um modelo de IA deve aprender novas tarefas ao longo do tempo, sem perder o conhecimento adquirido anteriormente. Na prática, porém, muitos modelos apresentam queda de desempenho em tarefas antigas à medida que aprendem novas funções — fenômeno conhecido como esquecimento catastrófico.

Segundo o professor Leonardo Brito, o problema central abordado pela pesquisa não é exatamente o esquecimento em si, mas a forma como ele é identificado. “Existem modelos que são robustos e não estão, de fato, esquecendo tarefas anteriores, mas as métricas tradicionalmente utilizadas podem indicar uma perda de desempenho que não está relacionada ao esquecimento catastrófico”, explica.

Atualmente, a avaliação desses modelos costuma ser feita a partir de métricas de desempenho, como a acurácia, comparando resultados obtidos em tarefas atuais e anteriores. O estudo aponta que essa abordagem, isoladamente, pode levar a interpretações equivocadas sobre o comportamento do modelo.

“A queda de performance pode estar associada a outros fatores, e não necessariamente ao esquecimento do conhecimento previamente aprendido”, destaca o pesquisador. Dessa forma, “o uso exclusivo dessas métricas pode mascarar as reais causas do problema e induzir decisões incorretas no desenvolvimento e na aplicação de sistemas de Inteligência Artificial”.

Impacto

Por se tratar de uma pesquisa de base, o trabalho tem impacto direto tanto para pesquisadores quanto para empresas e instituições que utilizam modelos de IA em seus sistemas. A discussão proposta contribui para o desenvolvimento de soluções mais confiáveis, especialmente em aplicações que exigem aprendizado contínuo, como sistemas de visão computacional e processamento de linguagem natural.

“O estudo é um chamado para a comunidade científica refletir sobre como esses modelos estão sendo avaliados e para o desenvolvimento de novas métricas que representem melhor o que realmente está acontecendo”, afirma Brito.

Ainda segundo o docente, a pesquisa segue em andamento e já apresenta desdobramentos. Uma continuação do trabalho foi aceita para apresentação no congresso internacional 40th Annual AAAI Conference on Artificial Intelligence, em Singapura, dessa vez propondo novas métricas para avaliação de modelos em cenários de aprendizado contínuo. Além disso, o paper premiado foi convidado a ser expandido e submetido como artigo para uma revista científica.

O professor também destaca a expectativa de ampliar as colaborações internacionais e envolver estudantes do IMD, especialmente dos cursos de graduação e pós-graduação da área de Computação, nas próximas etapas do estudo.