Abstra

    Fraude contábil na era da IA: o que seu auditor ainda não está vendo

    Entenda como a Inteligência Artificial melhora a auditoria de lançamentos contábeis manuais, reduz falsos positivos e ajuda a detectar fraudes que os testes tradicionais não identificam.

    Catarina Pinheiro
    24/04/2026
    8 min read

    Fraude contábil na era da IA: o que seu auditor ainda não está vendo

    Auditar lançamento contábil manual é exigência da NBC TA 240 e de toda norma equivalente de controle interno. Toda empresa de médio ou grande porte no Brasil faz esse teste de alguma forma, seja pra atender auditoria externa, seja por política interna.

    O problema é que o método padrão, estabilizado há duas décadas, está deixando fraude sofisticada passar sem ser detectada.

    Um corpo crescente de pesquisa em auditoria, acumulado desde 2017 em instituições como Rutgers, Universidade de St. Gallen e Humboldt de Berlim, mostra que inteligência artificial aplicada ao lançamento contábil captura risco que o teste tradicional não enxerga. O trabalho mais recente, publicado em 2025, propõe uma arquitetura específica pra isso.


    Imagine um lançamento contábil de fim de trimestre.

    • Valor: R$ 847.392,18. Passa no filtro de "valor redondo".
    • Usuário: analista sênior do time financeiro, autorizado a lançar nessa conta. Passa no filtro de "usuário incomum".
    • Data e hora: terça-feira, 14h37. Passa no filtro de "horário atípico".
    • Contrapartida: provisão de contingência contra despesa operacional. É combinação comum nessa empresa. Passa no filtro de "contrapartida incomum".

    Descrição:

    "ajuste de provisão conforme análise jurídica atualizada"

    Em qualquer teste tradicional de lançamento manual, esse registro passa ileso. Nada nos campos estruturados chama atenção.

    Mas a descrição é genérica, não referencia processo específico, e usa um padrão de vocabulário que aparece com frequência desproporcional em reclassificações irregulares.

    O sinal de risco está no texto, que nenhum teste tradicional analisa.

    É sobre isso que precisamos conversar.

    O que é teste de lançamento manual e por que a NBC TA 240 exige

    Manual Journal Entry Test, ou JET, é a prática de auditar lançamentos manuais feitos no razão, aqueles que não vêm automaticamente de um subsistema integrado.

    A importância dele vem de uma assimetria que todo controller conhece na prática, mas poucos explicitam.

    Em empresa de porte médio ou grande, mais de 90% dos lançamentos contábeis são automáticos. Vêm da folha, do faturamento, do módulo fiscal, da depreciação. São auditáveis por design, porque a regra que os gerou está dentro do sistema.

    Os outros 5% a 10% são manuais. Alguém entrou no ERP e digitou. Reclassificação, ajuste de provisão, estorno, write-off, lançamento de encerramento.

    É nesses 5% a 10% que mora, historicamente, praticamente toda fraude contábil relevante e praticamente todo erro material.

    O padrão internacional de auditoria reconhece isso. A NBC TA 240 obriga o auditor externo a testar lançamentos manuais especificamente. A Sarbanes-Oxley, depois da WorldCom, reforçou o ponto no mercado americano. No Brasil, a NBC TA 240 traz exigência equivalente, e a CVM aumentou a atenção sobre o tema depois da Americanas.

    A obrigação de testar existe. O problema está em como se testa.

    Como empresas testam lançamento manual hoje

    O método tradicional é um conjunto de regras pré-definidas que sinalizam lançamentos suspeitos. As mais comuns:

    • Valor redondo (R$ 500.000,00 em vez de R$ 497.832,41)
    • Lançado em fim de semana, feriado ou fora de horário comercial
    • Lançado em data próxima ao fim de período, com suspeita de manipulação de resultado
    • Usuário que normalmente não lança naquela conta
    • Contrapartida incomum, como receita contra reserva
    • Valor acima de threshold material

    A ferramenta varia. Pode ser ACL, IDEA, MindBridge, módulo de Continuous Controls Monitoring de SAP ou Oracle, ou planilha mesmo. A cadência também varia. Alguns times rodam trimestralmente, outros só na preparação da auditoria externa.

    A lógica é sempre a mesma: regras binárias sobre campos estruturados. Ou o lançamento bate na regra, ou não bate. Sai uma lista de alertas, alguém revisa.

    Esse método funcionou por 20 anos. Ainda é o padrão. E tem dois problemas estruturais que ninguém resolve.

    Por que o método atual deixa fraude contábil passar

    Primeiro problema: falso positivo em massa

    Uma empresa com 500 lançamentos manuais por mês, rodando 15 regras, gera alertas em dezenas, às vezes centenas de lançamentos. O controller tem tempo pra revisar 10 ou 15 com atenção. O resto vira ruído.

    A consequência é perversa. A régua existe, é documentada, aparece no relatório de auditoria, mas na prática não filtra risco. Filtra tempo. O time olha os alertas mais óbvios e assume que os outros são falsos positivos. A régua vira controle de fachada.

    Segundo problema: falso negativo em fraude sofisticada

    Quem quer manipular resultado ou cometer fraude aprende as regras. É o princípio mais antigo de controle interno: o controle público vira o manual de instruções do fraudador.

    Então o lançamento manipulado é feito em dia útil, horário comercial, usuário autorizado, valor deliberadamente quebrado, contrapartida comum. Ele foi desenhado pra passar pelos filtros.

    Não é coincidência que os grandes casos de fraude contábil das últimas duas décadas (WorldCom, HealthSouth, Wirecard, Americanas) todos envolveram lançamento manual e todos passaram pelos testes tradicionais de auditoria de sua época.

    O padrão é consistente: fraude sofisticada aprende a se camuflar em padrão normal.

    Volte ao exemplo da abertura. O lançamento de R$ 847.392,18 passa em todos os filtros tradicionais. Mas se você olha a descrição, "ajuste de provisão conforme análise jurídica atualizada", e compara com o padrão de descrições legítimas no mesmo razão, vê uma anomalia.

    Descrições legítimas costumam referenciar processo específico, número de parecer, data de evento. Essa não referencia nada. É deliberadamente vaga.

    Esse padrão, descrição desproporcionalmente genérica em lançamentos irregulares, é observação consolidada em pesquisa de análise linguística aplicada a fraude contábil. Um estudo clássico de Humpherys e colegas, publicado em 2011 no Decision Support Systems, analisou 202 disclosures financeiros e mostrou que autores de disclosures fraudulentos tendem a escrever mais pra parecer críveis, mas comunicam menos conteúdo real.

    O que é novo é termos ferramentas pra detectar esse padrão sistematicamente, em escala.

    Como IA detecta fraude que o teste tradicional não vê

    A aplicação de inteligência artificial em auditoria não é novidade, mas a pesquisa recente propõe um salto específico que vale entender.

    Em 2025, Huijue Kelly Duan e Miklos A. Vasarhelyi, da Rutgers Business School, publicaram no Intelligent Systems in Accounting, Finance and Management um paper chamado "Manual Journal Entry Testing: Integrating Natural Language Processing and Deep Learning".

    A ideia central, traduzida pra linguagem de negócio, é simples:

    O texto da descrição do lançamento carrega sinal de risco. Até hoje, nenhuma prática estabelecida usa esse sinal de forma sistemática.

    O que os autores propõem tem três camadas.

    A primeira camada mantém o que o teste tradicional já faz: campos quantitativos, ou seja, valor, conta, usuário, data, hora, contrapartida. Não joga fora o que funcionava.

    A segunda camada incorpora sinais textuais extraídos da descrição usando inteligência artificial, especificamente técnicas de processamento de linguagem natural (NLP). Essa aplicação de IA em auditoria avalia múltiplas dimensões do texto: o tamanho da descrição, o vocabulário usado, a complexidade linguística, a similaridade com o padrão de descrições do mesmo razão, e sinais do que os pesquisadores chamam de "justificativa defensiva", descrições longas que tentam explicar demais.

    Cada uma dessas dimensões, tomada isoladamente, diz pouco. Combinadas por um modelo de IA treinado em histórico real, viram sinal forte de risco.

    A terceira camada é um modelo de machine learning que combina as duas anteriores e gera um score contínuo de risco. Não é "passou ou não passou". É "este lançamento tem risco 0,87 na escala, este outro tem 0,12".

    O efeito prático é direto. Em vez de 200 alertas binários pro controller revisar, ele recebe uma lista ordenada e revisa os 20 mais altos. E esses 20 são, de fato, os mais arriscados.

    Os autores testaram a abordagem em dados reais de uma multinacional. Os resultados sustentam a tese: a combinação de texto com campos estruturados captura risco que nenhuma das camadas captura sozinha.

    Arquitetura de um teste de lançamento manual com IA

    A implementação conceitual, sem entrar em código, tem cinco passos:

    1. Extrair lançamentos manuais do ERP (export mensal ou trimestral)

    Campos: valor, conta, contrapartida, usuário, data, hora, descrição

    2. Para cada lançamento, calcular sinais de risco:

    • Quantitativos: o que o teste tradicional já calcula
    • Textuais: tamanho da descrição, vocabulário atípico, similaridade com o padrão do razão, sinais de justificativa

    3. Combinar os sinais num score composto

    (modelo treinado em histórico de lançamentos já classificados como normais ou suspeitos)

    4. Ordenar os lançamentos por score decrescente

    5. Revisar os N mais altos, tipicamente 5% a 10% do total

    Nada aqui é tecnologia de ponta. NLP e machine learning existem há anos, e ferramentas de auditoria com IA estão disponíveis no mercado. O que é novo é aplicar essa tecnologia a um problema que a indústria continua resolvendo com régua de 1990.

    Um time técnico razoável implementa isso em semanas, não em meses. A barreira não é técnica. É de entender que o problema existe.

    Três perguntas que todo CFO deveria fazer sobre detecção de fraude contábil

    Se você não vai implementar esse nível de sofisticação agora, tudo bem. Mas tem três perguntas que diferenciam o CFO que entende o gap do que não entende. Valem pra próxima conversa com controller, auditor interno, ou fornecedor de audit analytics.

    Primeira pergunta: como nosso teste de lançamento manual incorpora o texto da descrição?

    Se a resposta for "não incorpora" ou "olhamos manualmente nos alertas que saem", saiba que você está na régua de 20 anos atrás. Não é erro, é estado da arte do mercado. Mas é território com margem enorme de melhoria, e é exatamente onde pesquisa atual em IA aplicada a auditoria está trabalhando.

    Segunda pergunta: quantos lançamentos manuais nosso time revisa por trimestre, e como priorizamos quais olhar de fato?

    Se a priorização for "os que saíram na régua", e a régua gera centenas de alertas, você tem controle de fachada. Se for "os mais materiais", você está aplicando julgamento humano sobre dado bruto, o que é melhor que nada, mas não escala.

    Terceira pergunta: nosso fornecedor de audit analytics usa IA de verdade no scoring, ou só regras estruturadas?

    A maioria vai responder que usa "analytics avançado" ou "inteligência artificial". Pergunte especificamente: o modelo analisa o texto da descrição, ou só os campos numéricos e categóricos? Se a resposta for vaga, a resposta real é não.

    O futuro da auditoria com IA

    Teste de lançamento manual nasceu pra detectar fraude em dado estruturado. Fraude sofisticada aprendeu a parecer estruturada. O próximo salto não é olhar mais números. É olhar o texto que está entre eles e o contexto que explica por que estão ali.

    A pesquisa acadêmica já mostrou que dá pra fazer. A tecnologia já existe, e fornecedores sérios de audit analytics estão começando a incorporá-la. A barreira é organizacional, entender que o problema existe antes de procurar solução.

    O lançamento que vai te pegar é o que passa em todas as regras.

    A pergunta é se o texto dele também vai passar despercebido.


    Referência: Duan, H. K., & Vasarhelyi, M. A. (2025). Manual Journal Entry Testing: Integrating Natural Language Processing and Deep Learning. Intelligent Systems in Accounting, Finance and Management, 32(3). Link para o paper


    FAQ — Fraude contábil na era da IA

    O que é teste de lançamento manual?

    É o processo de revisão dos lançamentos feitos diretamente no razão contábil que não foram gerados automaticamente por subsistemas como folha, fiscal ou faturamento.

    Por que a NBC TA 240 exige esse tipo de auditoria?

    A NBC TA 240 reconhece que lançamentos manuais são pontos sensíveis para manipulação contábil, representando historicamente a maioria dos casos de fraude relevante, mesmo sendo apenas 5-10% do volume total.

    Como a IA melhora a detecção de fraude contábil?

    A IA permite analisar não apenas valores e datas, mas também o texto das descrições de lançamentos, identificando padrões linguísticos que indicam risco e que os testes tradicionais não conseguem detectar.

    É possível implementar isso sem trocar de ERP?

    Sim. A análise é feita a partir da exportação dos lançamentos já existentes no ERP, sem necessidade de substituição do sistema principal.

    Qual o principal problema dos métodos tradicionais?

    Os métodos tradicionais geram muitos falsos positivos (centenas de alertas) e deixam passar falsos negativos (fraudes sofisticadas que seguem padrões "normais" nos campos estruturados).


    Se sua empresa ainda usa apenas regras fixas para testar lançamentos contábeis, existe uma grande oportunidade de reduzir risco de fraude e aumentar a eficiência da auditoria.

    A Abstra ajuda times financeiros a construir processos de auditoria com IA, integrando ERP, regras de compliance e análise inteligente para detectar fraudes que os métodos tradicionais não conseguem identificar.

    Fale com nossos especialistas e veja como aplicar IA na detecção de fraude contábil.

    Inscreva-se em nossa Newsletter

    Receba os últimos artigos, insights e atualizações diretamente na sua caixa de entrada.