Anotações6 min de leituraEnglish version

Onde os Humanos Pertencem no seu Loop de IA

Toda funcionalidade de IA tem humanos em algum ponto do loop. A maioria dos times coloca no lugar errado. Quatro modos de posicionamento — e um teste de quatro perguntas para escolher o certo.

"Precisamos de um humano revisando o output?" é a pergunta errada. A certa é: qual humano, fazendo o quê, em qual etapa?

Toda funcionalidade de IA em produção tem humanos em algum lugar do loop. Até as que parecem totalmente autônomas têm um humano de plantão quando o modelo quebra, um humano escrevendo o conjunto de avaliação, um humano auditando os logs semanalmente. A pergunta nunca é se humanos estão envolvidos; é onde eles ficam, e a maioria dos times escolhe o lugar errado.

Quatro modos de posicionamento

1. Revisor — humano antes da ação

Modelo propõe, humano aprova, e aí a ação acontece. Lento, caro, mas recuperável: um output ruim nunca chega no usuário.

Use quando: a ação é irreversível ou cara (enviar e-mail para cliente, executar reembolso, postar publicamente). O modelo é novo e você ainda não confia. O volume é baixo o bastante para uma pessoa dar conta.

2. Editor — humano parte do output do modelo

Modelo rascunha, humano edita antes de publicar ou enviar. O humano está fazendo o trabalho — o modelo só tira a página em branco da frente.

Use quando: a tarefa é criativa ou exige julgamento (rascunhar uma proposta, escrever uma resposta para cliente, resumir uma reunião). Qualidade importa mais que velocidade. O custo de um output errado-mas-não-editado é alto. Esse costuma ser o ponto ótimo — maior alavancagem com menor risco.

3. Auditor — revisão amostral depois da ação

Modelo age, humano confere uma amostra (digamos, 5%) depois. Erros acontecem e nem sempre são recuperáveis, mas você pega problemas sistemáticos antes que se acumulem.

Use quando: a ação é reversível ou de baixo risco (categorizar tickets, etiquetar conteúdo, rotear para fila). Volume alto demais para revisão item a item. Você tem disciplina pra rodar a auditoria no cronograma combinado.

4. Escalador — humano só quando o modelo diz "não sei"

Modelo lida com o que tem confiança, encaminha para um humano quando não tem. O mais difícil dos quatro de acertar porque exige que o modelo seja honesto sobre sua própria incerteza.

Use quando: existe uma cauda longa de casos de borda e um "caminho fácil" bem definido. Você consegue medir com que frequência o modelo escala e ajustar o limiar. Você tem um time humano de prontidão — escalar para uma fila que ninguém olha é pior que não escalar.

O teste de quatro perguntas

Antes de escolher um modo, responda essas quatro perguntas sobre a ação que sua IA executa:

  1. Reversibilidade. Se o output estiver errado, dá pra desfazer barato? Mandar um e-mail é irreversível; um rascunho numa fila é.
  2. Volume. Quantos desses por dia? 50 significa que um revisor dá conta. 50.000 significa que não.
  3. Teto de habilidade. Um revisor competente gasta 30 segundos ou 30 minutos por item? Isso define a matemática de throughput.
  4. Visibilidade da falha. Se o output estiver errado, quem percebe? O usuário na hora? Ninguém até o próximo trimestre? "Ninguém" significa que você precisa de revisão pré-ação, não auditoria pós-fato.

Reversível + alto volume + baixa habilidade + falha visível → Auditor funciona.
Irreversível + baixo volume + alta habilidade + falha invisível → Revisor ou Editor.
Tráfego misto com um "caminho fácil" claro → Escalador, só se você conseguir medir confiança.

Três modos de falha que continuamos vendo

  • Carimbo automático. O revisor aprova com tanta consistência que não está mais revisando. Ou o modelo é bom o bastante pra retirar o revisor, ou a revisão precisa ser redesenhada (outro revisor, verificação mais difícil, amostras aleatórias).
  • Fadiga de alerta. A fila do escalador recebe 200 itens por dia e ninguém consegue acompanhar. Em duas semanas o time está fechando itens sem ler. Ou aperta o limiar de confiança do modelo, ou aceita uma taxa de erro maior downstream.
  • Auditoria ausente. "Conferimos depois" nunca vira uma cadência real. Se a auditoria não está no calendário semanal de alguém com dono nomeado, ela não existe.

A armadilha

O design mais caro que vemos: um revisor na frente de cada ação, mais um auditor amostrando depois, mais uma fila de escalonamento — porque ninguém se sentiu confortável removendo nenhum deles. O resultado é um custo humano que excede a economia da IA, e a IA era pra deixar isso mais barato.

Escolha um modo. Meça. Adicione um segundo só quando o primeiro provar ser insuficiente. Sobre-engenheirar o loop humano é como os times entregam devagar e ainda assim se sentem inseguros.

Fechando

Humanos não são fallback de IA ruim. Eles são parte estrutural de todo sistema de IA que funciona. Colocá-los no lugar certo — nem tarde demais para pegar falhas, nem cedo demais para virar gargalo — é a maior parte do trabalho de design.