Human in the loop: amostrar em vez de aprovar item a item
O padrão human in the loop é citado em quase toda pitch de automação como se fosse uma escolha óbvia — mas quase nunca é discutido em detalhe. Toda pitch de automação de workflow eventualmente diz “e um humano revisa o resultado”. A linha quase sempre é deixada pra lá. É também onde a maioria das iniciativas de automação falha silenciosamente.
O human in the loop default que não funciona
O padrão ingênuo: automação produz output, fila para humano aprovar, segue se aprovado. Parece razoável em slide deck e desmonta em três lugares:
- A fila vira backlog. Humanos revisam em horário comercial; a automação roda 24/7.
- Aprovadores não têm contexto suficiente para julgar rápido. Cada item leva 3 a 5 minutos de investigação.
- Aprovação vira carimbo, porque os revisores aprendem que 99% dos itens estão certos e param de ler com atenção.
No mês 6, o passo de revisão humana é só um gargalo que segura o sistema sem pegar nada. O conceito de automation bias descreve exatamente esse processo: aprovadores começam a confiar demais e checar de menos.
O que recomendamos no lugar
Pare de pedir para humanos aprovarem a automação. Comece a pedir que amostrem ela.
Rode o workflow sem aprovação. Mostre 5 a 10% dos outputs para um revisor humano com contexto completo, perguntando “isso está certo?”. Use discordâncias para retreinar ou corrigir lógica.
Esse padrão funciona porque: throughput deixa de ser limitado por humanos, revisores permanecem engajados porque estão julgando casos novos, e discordâncias compõem em melhoria de modelo. Vale comparar com a forma como pensamos sobre workflows operacionais em geral.
Quando NÃO fazer isso
Amostragem funciona para automação de alto volume e baixo impacto individual. Não funciona quando decisões individuais têm consequências desproporcionais — aprovações financeiras acima de um threshold, exceções de segurança, qualquer coisa regulada. Lá, aprovação item-a-item é o padrão correto.
O erro é usar aprovação item-a-item como default em todo lugar. Aplique human in the loop amostral onde o custo de um erro é tolerável, e mantenha o padrão clássico onde não é.