O Problema: LLMs São Probabilísticos
Modelos de linguagem (LLMs) são máquinas de probabilidade. Eles geram respostas plausíveis, não respostas corretas. Para tarefas criativas, isso é uma vantagem. Para lógica de negócios, é um risco sistêmico.
Quando um agente de IA precisa decidir se aprova um pedido de crédito, redireciona um ticket de suporte ou executa uma migração de dados, “plausível” não é aceitável. A resposta precisa ser determinística.
A.N.T.: As Três Camadas
Architecture (A)
A camada de Architecture define as regras e restrições do sistema. É o “guardrail” que impede a IA de desviar:
- Schemas de entrada e saída validados com Zod
- Permissões granulares por agente
- Limites de escopo para cada tarefa
Navigation (N)
Navigation determina como os agentes tomam decisões de roteamento. Em vez de deixar o LLM “decidir” livremente, definimos árvores de decisão explícitas:
- Roteamento baseado em regras (if/then determinístico)
- Fallbacks definidos para cada cenário de erro
- Logging completo de cada decisão para auditoria
Tools (T)
Tools são os scripts atômicos e testáveis que executam ações. Cada Tool é:
- Uma função Python/TypeScript com entrada e saída tipadas
- Testável de forma isolada com cobertura > 90%
- Idempotente — pode ser executada múltiplas vezes sem efeitos colaterais
O Resultado: Autonomia Previsível
Com A.N.T., a IA nunca “adivinha” a execução. Ela roteia decisões através de regras estritas (Architecture), navega por caminhos determinísticos (Navigation) e executa ações via scripts atômicos (Tools).
O resultado é um sistema que escala com a autonomia de agentes de IA, mas com a previsibilidade de software tradicional.
Quando Usar A.N.T.
O protocolo é indicado para:
- Workflows complexos com múltiplas etapas e dependências
- Integrações críticas onde erros têm custo real
- Compliance onde cada decisão precisa ser auditável
- Operações 24/7 que não podem depender de supervisão humana constante
Na Witek, todo projeto de orquestração agêntica segue o protocolo A.N.T. desde o dia zero.