FIAP AI Versão Mobile
ETAPA 1: SELEÇÃO DO CENÁRIO

Suporte ao Cliente Multi-Nível
Fintech Digital Bank

O cenário escolhido foca na automação inteligente do suporte bancário. O desafio é escalar desde consultas simples (saldo) até disputas complexas de fraude, garantindo segurança e empatia através de uma orquestração de agentes especializados.

Disciplina Arquitetura de Agentes
Docente Prof. Carlos Alberto Stefano Filho

O Problema

Chatbots tradicionais falham em contextos complexos (ex: fraudes), gerando frustração e alto volume de transbordo para humanos, elevando o custo operacional.

A Solução

Um sistema multi-agente onde um "Supervisor" classifica a intenção e delega para "Especialistas" (Transacional, Segurança, Consultivo), mantendo o contexto.

ETAPA 2: ORQUESTRAÇÃO

Fluxo de Orquestração Hierárquica

Escolhemos o padrão de Orquestração Supervisor/Router. Um agente central recebe a demanda, analisa a intenção e roteia para o especialista adequado.

Cliente: "Não reconheço uma compra de R$500"
Orquestrador

Supervisor (Router)

Analisa intenção e sentimento. Decide quem resolve.

Agente de Saldo

Leitura simples de DB. Respostas rápidas.

Agente de Fraude

Raciocínio complexo. Coleta evidências e inicia bloqueio.

Caminho Ativo

Handoff Humano

Escalado se o score de confiança for baixo.

Por que Hierárquico?

Permite especialização. O agente de fraude precisa de um prompt de sistema diferente (mais cauteloso, investigativo) do que o agente de saldo (rápido, direto). Isso evita alucinações.

Vantagens vs. Desvantagens

  • Vantagem: Maior acurácia e segurança.
  • Vantagem: Modularidade (fácil adicionar novos especialistas).
  • Desvantagem: Latência (uma camada extra de processamento no Router).

Por que uma Solução Agêntica?

Além da Automação Rígida

Sistemas tradicionais (IF/ELSE) falham na ambiguidade. Um cliente dizendo "Meu cartão sumiu, acho que deixei no Uber, mas talvez esteja em casa" trava um bot comum.

A defesa: Agentes com LLMs possuem capacidade de raciocínio (Reasoning). O agente pode inferir que o risco é moderado e sugerir um "bloqueio temporário" em vez de cancelamento total, adaptando-se ao contexto do usuário.

Memória Contextual

O agente lembra que o cliente viajou para o exterior na semana passada, contextualizando a fraude.

Uso de Ferramentas

Capacidade de consultar APIs de geolocalização e histórico em tempo real de forma autônoma.

Flexibilidade

Lida com erros de digitação e mudanças de assunto sem reiniciar o fluxo.

KPIs de Negócio & Sucesso

Como vamos medir se a solução realmente entrega valor?

FCR

First Contact Resolution

+25% Meta

Porcentagem de tickets resolvidos pelo agente sem intervenção humana.
Medição: Log da conversa onde `handoff_flag == false`.

TMA

Tempo Médio de Atendimento

-40% Meta

Redução no tempo total da jornada do cliente. Agentes processam dados instantaneamente.
Medição: Timestamp Start vs. End.

CSAT / NPS

Satisfação do Cliente

> 60

Qualidade percebida da interação.
Medição: Pesquisa de 1 clique ao final do chat ("Como foi seu atendimento?").

Custo por Ticket

Eficiência Financeira

R$ 2 vs R$ 15

Comparativo do custo de token LLM vs. minuto do operador humano.
Medição: Custo API / Total Tickets.

Estimativa de ROI (Return on Investment)

Análise financeira detalhada considerando CAPEX (Investimento Inicial) e OPEX (Custo Operacional). A solução visa reduzir custos operacionais massivos enquanto aumenta a disponibilidade.

Economia Operacional Mensal

Volume de Tickets 100.000 / mês
Taxa de Contenção (AI Resolves) 40% (40k tickets)
Delta Custo (Humano - AI) R$ 15,00 - R$ 2,50 = R$ 12,50

Economia Líquida Mensal

R$ 500.000/mês

CAPEX: Investimento Inicial (Setup)

  • Desenvolvimento & Integração R$ 120.000
  • Fine-Tuning & Prompt Engineering R$ 50.000
  • Total Setup R$ 170.000
Payback Time: Menos de 1 mês (considerando economia de 500k/mês).

Projeção Acumulada (12 Meses)

Cenário Tradicional (100% Humano) R$ 18.0 Milhões
Cenário Híbrido (AI + Humano) R$ 12.0 Milhões
Economia Total: R$ 6.0 Milhões

*Considerando OPEX de tokens e manutenção da plataforma.

Escalabilidade Infinita

Ao contrário de humanos, agentes escalam instantaneamente em picos (ex: Black Friday) sem custo de hora extra.

Data Intelligence

Conversas estruturadas viram insights para o time de Produto (ex: "30% reclamam da UX do Pix").

Aspectos Éticos & Governança

1. Transparência & Identidade

O agente deve, obrigatoriamente, identificar-se como uma Inteligência Artificial no início da interação. O usuário tem o "Direito à Explicação": se um reembolso for negado, o agente deve explicar os critérios (dentro dos limites de segurança).

2. Human-in-the-Loop (HITL)

Para ações críticas, como bloqueio de contas ou negação de crédito, a IA deve atuar apenas como recomendadora. A decisão final ou a revisão facilitada deve ser humana para evitar danos catastróficos por "falsos positivos".

3. Viés Algorítmico

Monitoramento constante para garantir que o modelo de detecção de fraude não penalize desproporcionalmente perfis demográficos específicos baseados em CEP ou idade.

4. Privacidade (LGPD)

Dados sensíveis (PII) devem ser anonimizados antes de serem processados pelo modelo de orquestração se este for externo. Uso de LLMs hospedados em infraestrutura privada (Azure OpenAI/AWS Bedrock) é mandatório.

FIAP AI Architecture • 2026

Apresentação do Projeto

🌐 Você está visitando o site de luizihara.github.io