Suporte ao Cliente Multi-Nível
Fintech
Digital Bank
O cenário escolhido foca na automação inteligente do suporte bancário. O desafio é escalar desde consultas simples (saldo) até disputas complexas de fraude, garantindo segurança e empatia através de uma orquestração de agentes especializados.
O Problema
Chatbots tradicionais falham em contextos complexos (ex: fraudes), gerando frustração e alto volume de transbordo para humanos, elevando o custo operacional.
A Solução
Um sistema multi-agente onde um "Supervisor" classifica a intenção e delega para "Especialistas" (Transacional, Segurança, Consultivo), mantendo o contexto.
Fluxo de Orquestração Hierárquica
Escolhemos o padrão de Orquestração Supervisor/Router. Um agente central recebe a demanda, analisa a intenção e roteia para o especialista adequado.
Supervisor (Router)
Analisa intenção e sentimento. Decide quem resolve.
Agente de Saldo
Leitura simples de DB. Respostas rápidas.
Agente de Fraude
Raciocínio complexo. Coleta evidências e inicia bloqueio.
Caminho AtivoHandoff Humano
Escalado se o score de confiança for baixo.
Por que Hierárquico?
Permite especialização. O agente de fraude precisa de um prompt de sistema diferente (mais cauteloso, investigativo) do que o agente de saldo (rápido, direto). Isso evita alucinações.
Vantagens vs. Desvantagens
- Vantagem: Maior acurácia e segurança.
- Vantagem: Modularidade (fácil adicionar novos especialistas).
- Desvantagem: Latência (uma camada extra de processamento no Router).
Por que uma Solução Agêntica?
Além da Automação Rígida
Sistemas tradicionais (IF/ELSE) falham na ambiguidade. Um cliente dizendo "Meu cartão sumiu, acho que deixei no Uber, mas talvez esteja em casa" trava um bot comum.
A defesa: Agentes com LLMs possuem capacidade de raciocínio (Reasoning). O agente pode inferir que o risco é moderado e sugerir um "bloqueio temporário" em vez de cancelamento total, adaptando-se ao contexto do usuário.
Memória Contextual
O agente lembra que o cliente viajou para o exterior na semana passada, contextualizando a fraude.
Uso de Ferramentas
Capacidade de consultar APIs de geolocalização e histórico em tempo real de forma autônoma.
Flexibilidade
Lida com erros de digitação e mudanças de assunto sem reiniciar o fluxo.
KPIs de Negócio & Sucesso
Como vamos medir se a solução realmente entrega valor?
FCR
First Contact Resolution
Porcentagem de tickets resolvidos pelo agente sem intervenção
humana.
Medição: Log da conversa onde `handoff_flag == false`.
TMA
Tempo Médio de Atendimento
Redução no tempo total da jornada do cliente. Agentes processam
dados instantaneamente.
Medição: Timestamp Start vs. End.
CSAT / NPS
Satisfação do Cliente
Qualidade percebida da interação.
Medição:
Pesquisa de 1 clique ao final do chat ("Como foi seu atendimento?").
Custo por Ticket
Eficiência Financeira
Comparativo do custo de token LLM vs. minuto do operador
humano.
Medição: Custo API / Total Tickets.
Estimativa de ROI (Return on Investment)
Análise financeira detalhada considerando CAPEX (Investimento Inicial) e OPEX (Custo Operacional). A solução visa reduzir custos operacionais massivos enquanto aumenta a disponibilidade.
Economia Operacional Mensal
Economia Líquida Mensal
CAPEX: Investimento Inicial (Setup)
- Desenvolvimento & Integração R$ 120.000
- Fine-Tuning & Prompt Engineering R$ 50.000
- Total Setup R$ 170.000
Projeção Acumulada (12 Meses)
*Considerando OPEX de tokens e manutenção da plataforma.
Escalabilidade Infinita
Ao contrário de humanos, agentes escalam instantaneamente em picos (ex: Black Friday) sem custo de hora extra.
Data Intelligence
Conversas estruturadas viram insights para o time de Produto (ex: "30% reclamam da UX do Pix").
Aspectos Éticos & Governança
1. Transparência & Identidade
O agente deve, obrigatoriamente, identificar-se como uma Inteligência Artificial no início da interação. O usuário tem o "Direito à Explicação": se um reembolso for negado, o agente deve explicar os critérios (dentro dos limites de segurança).
2. Human-in-the-Loop (HITL)
Para ações críticas, como bloqueio de contas ou negação de crédito, a IA deve atuar apenas como recomendadora. A decisão final ou a revisão facilitada deve ser humana para evitar danos catastróficos por "falsos positivos".
3. Viés Algorítmico
Monitoramento constante para garantir que o modelo de detecção de fraude não penalize desproporcionalmente perfis demográficos específicos baseados em CEP ou idade.
4. Privacidade (LGPD)
Dados sensíveis (PII) devem ser anonimizados antes de serem processados pelo modelo de orquestração se este for externo. Uso de LLMs hospedados em infraestrutura privada (Azure OpenAI/AWS Bedrock) é mandatório.
FIAP AI Architecture • 2026