5.4 KiB
5.4 KiB
PRD - Product Requirements Document
Agente de IA para Classificação de Transações Bancárias
1. Visão Geral
Este documento define os requisitos para o desenvolvimento de um Agente de Inteligência Artificial especializado na classificação de transações bancárias. O sistema operará exclusivamente via API, consumindo dados já tratados e utilizando técnicas de RAG (Retrieval-Augmented Generation) para sugerir classificações com base em histórico prévio, priorizando eficiência em ambientes com restrição de hardware (CPU-only).
2. Objetivos do Produto
- Classificação Inteligente: Categorizar transações com base na descrição, utilizando similaridade (RAG) e inferência de modelo local.
- Eficiência de Recurso: Operar com baixo consumo de RAM e exclusivamente em CPU.
- Desacoplamento: Interação exclusiva via API, sem interface direta com usuário final.
- Autonomia: Processamento assíncrono sem bloqueio aguardando feedback humano imediato.
3. Escopo
3.1 Incluso
- Integração via API para recebimento de dados de transações (já parseados).
- Busca de transações similares em base vetorial (RAG).
- Motor de inferência utilizando LLM Local (Llama 3).
- Cálculo de taxa de acerto e confiança.
- Mecanismo de feedback diferido (Human-in-the-loop passivo).
3.2 Não Incluso
- Leitura ou parsing de arquivos (OFX, CSV, PDF, Excel).
- OCR ou extração de dados de imagens.
- Interface de usuário direta para o agente (o agente é um backend service).
- Bloqueio de execução por espera humana.
4. Funcionalidades Principais
4.1 Interface de Entrada
- O agente expõe endpoints para receber objetos JSON contendo estritamente:
idTransacao(varchar 1000): Identificador único da transação na origem.dataEntrada(date): Data de competência da transação.descricao(varchar 500): Texto descritivo da transação bancária.tipoOperacao(varchar 500): Indicador de entrada/saída (ex: 'C'/'D', 'Crédito'/'Débito').tipoTransacao(varchar 500): Método da transação (ex: 'pix', 'pagamento', 'boleto', 'débito').titulo(varchar 500): Título amigável da transação (ex: "Pix Enviado", "Boleto Pago").
- Nota: O campo de Valor foi removido para evitar vieses. O modelo usará a descrição combinada com os tipos e título para categorização.
4.2 Motor de Classificação (Core AI - RAG + LLM Local)
- Estratégia:
- Embedding: Gera vetor da descrição usando
BGE-small. - Retrieval (Qdrant): Busca 3-5 transações similares confirmadas.
- Context Injection: Injeta os exemplos no prompt do Llama 3.2 1B.
- Inference (PydanticAI): Modelo classifica e PydanticAI valida se a categoria existe no Enum permitido.
- Output: Retorna classificação validada.
- Embedding: Gera vetor da descrição usando
- Resources: Otimizado para rodar localmente limitando uso de RAM.
4.3 Métricas e Observabilidade
- Monitoramento Lógico (AgentOps): Uso do Langfuse (self-hosted) para rastreamento (tracing) passo a passo de cada inferência. (Integração com Zabbix via Webhooks/API desejável, mas não obrigatória nesta fase).
- Monitoramento de Infraestrutura: Uso de Zabbix Agent para monitoramento de CPU/RAM/IO do host e containers.
- Feedback Loop: O sistema deve registrar feedback de usuário como "Scores" no trace do Langfuse para avaliação de qualidade.
5. Requisitos Não Funcionais
- Hardware: Execução exclusiva em CPU. Mínimo consumo de RAM plausível.
- Privacidade: Dados processados localmente. Sem envio para APIs externas (OpenAI/Anthropic).
- Latência: Foco em throughput, aceitável latência de inferência local desde que não trave a aplicação chamadora.
6. Stack Tecnológica Definida
- Linguagem: Python (Versão travada: 3.12.1).
- Framework: FastAPI (Exposição) + PydanticAI (Validação estrita e Orquestração).
- Observabilidade: Langfuse (Tracing) + Prometheus/Grafana (Métricas).
- LLM: Llama 3.2 1B Instruct Local (GGUF Q4).
- Otimização: Modelo extremamente leve (< 1GB RAM) rodando via
llama-cpp-pythonouollama.
- Otimização: Modelo extremamente leve (< 1GB RAM) rodando via
- Base de Dados e RAG:
- Relacional: PostgreSQL.
- Vetorial (RAG): Qdrant. Configurado com
on_disk: truee quantização escalar para economia de RAM. - Embeddings:
BGE-small-en-v1.5ou similar (FastEmbed) para geração rápida em CPU.
7. Fluxo de Execução
- Trigger: Aplicação externa envia transação via API para o Agente.
- Retrieval: Agente busca no VectorDB as "Top-K" transações mais parecidas semanticamente com a atual.
- Inference: Prompt montado com a Transação Atual + Exemplos Recuperados é enviado ao Llama 3 Local.
- Result: Agente retorna a classificação sugerida + Score de Confiança.
- Human Review (Assíncrono): Através da aplicação principal, o usuário valida.
- Learning (RAG + Fine-tuning):
- Curto Prazo: Correções atualizam o índice do Qdrant (RAG imediato).
- Médio Prazo: Transações confirmadas compõem dataset para Fine-tuning (LoRA) periódico do modelo Llama 3.2. Isso "ensina" os padrões ao modelo, reduzindo a dependência de contextos longos e aumentando a velocidade.
8. Próximos Passos
- Definir a versão exata do Llama 3.2 1B e método de quantização.
- Configurar container Zabbix Agent.
- Modelar pipeline de exportação de dados para Fine-tuning futuro.