Anotações6 min de leituraEnglish version
Onde os Humanos Pertencem no seu Loop de IA
Toda funcionalidade de IA tem humanos em algum ponto do loop. A maioria dos times coloca no lugar errado. Quatro modos de posicionamento — e um teste de quatro perguntas para escolher o certo.
"Precisamos de um humano revisando o output?" é a pergunta errada. A certa é: qual humano, fazendo o quê, em qual etapa?
Toda funcionalidade de IA em produção tem humanos em algum lugar do loop. Até as que parecem totalmente autônomas têm um humano de plantão quando o modelo quebra, um humano escrevendo o conjunto de avaliação, um humano auditando os logs semanalmente. A pergunta nunca é se humanos estão envolvidos; é onde eles ficam, e a maioria dos times escolhe o lugar errado.
Quatro modos de posicionamento
1. Revisor — humano antes da ação
Modelo propõe, humano aprova, e aí a ação acontece. Lento, caro, mas recuperável: um output ruim nunca chega no usuário.
Use quando: a ação é irreversível ou cara (enviar e-mail para cliente, executar reembolso, postar publicamente). O modelo é novo e você ainda não confia. O volume é baixo o bastante para uma pessoa dar conta.
2. Editor — humano parte do output do modelo
Modelo rascunha, humano edita antes de publicar ou enviar. O humano está fazendo o trabalho — o modelo só tira a página em branco da frente.
Use quando: a tarefa é criativa ou exige julgamento (rascunhar uma proposta, escrever uma resposta para cliente, resumir uma reunião). Qualidade importa mais que velocidade. O custo de um output errado-mas-não-editado é alto. Esse costuma ser o ponto ótimo — maior alavancagem com menor risco.
3. Auditor — revisão amostral depois da ação
Modelo age, humano confere uma amostra (digamos, 5%) depois. Erros acontecem e nem sempre são recuperáveis, mas você pega problemas sistemáticos antes que se acumulem.
Use quando: a ação é reversível ou de baixo risco (categorizar tickets, etiquetar conteúdo, rotear para fila). Volume alto demais para revisão item a item. Você tem disciplina pra rodar a auditoria no cronograma combinado.
4. Escalador — humano só quando o modelo diz "não sei"
Modelo lida com o que tem confiança, encaminha para um humano quando não tem. O mais difícil dos quatro de acertar porque exige que o modelo seja honesto sobre sua própria incerteza.
Use quando: existe uma cauda longa de casos de borda e um "caminho fácil" bem definido. Você consegue medir com que frequência o modelo escala e ajustar o limiar. Você tem um time humano de prontidão — escalar para uma fila que ninguém olha é pior que não escalar.
O teste de quatro perguntas
Antes de escolher um modo, responda essas quatro perguntas sobre a ação que sua IA executa:
- Reversibilidade. Se o output estiver errado, dá pra desfazer barato? Mandar um e-mail é irreversível; um rascunho numa fila é.
- Volume. Quantos desses por dia? 50 significa que um revisor dá conta. 50.000 significa que não.
- Teto de habilidade. Um revisor competente gasta 30 segundos ou 30 minutos por item? Isso define a matemática de throughput.
- Visibilidade da falha. Se o output estiver errado, quem percebe? O usuário na hora? Ninguém até o próximo trimestre? "Ninguém" significa que você precisa de revisão pré-ação, não auditoria pós-fato.
Reversível + alto volume + baixa habilidade + falha visível → Auditor funciona.
Irreversível + baixo volume + alta habilidade + falha invisível → Revisor ou Editor.
Tráfego misto com um "caminho fácil" claro → Escalador, só se você conseguir medir confiança.
Três modos de falha que continuamos vendo
- Carimbo automático. O revisor aprova com tanta consistência que não está mais revisando. Ou o modelo é bom o bastante pra retirar o revisor, ou a revisão precisa ser redesenhada (outro revisor, verificação mais difícil, amostras aleatórias).
- Fadiga de alerta. A fila do escalador recebe 200 itens por dia e ninguém consegue acompanhar. Em duas semanas o time está fechando itens sem ler. Ou aperta o limiar de confiança do modelo, ou aceita uma taxa de erro maior downstream.
- Auditoria ausente. "Conferimos depois" nunca vira uma cadência real. Se a auditoria não está no calendário semanal de alguém com dono nomeado, ela não existe.
A armadilha
O design mais caro que vemos: um revisor na frente de cada ação, mais um auditor amostrando depois, mais uma fila de escalonamento — porque ninguém se sentiu confortável removendo nenhum deles. O resultado é um custo humano que excede a economia da IA, e a IA era pra deixar isso mais barato.
Escolha um modo. Meça. Adicione um segundo só quando o primeiro provar ser insuficiente. Sobre-engenheirar o loop humano é como os times entregam devagar e ainda assim se sentem inseguros.
Fechando
Humanos não são fallback de IA ruim. Eles são parte estrutural de todo sistema de IA que funciona. Colocá-los no lugar certo — nem tarde demais para pegar falhas, nem cedo demais para virar gargalo — é a maior parte do trabalho de design.