diff --git a/.gemini/PRD_Classificacao_Bancaria.md b/.gemini/PRD_Classificacao_Bancaria.md index f30424b..b4bc166 100644 --- a/.gemini/PRD_Classificacao_Bancaria.md +++ b/.gemini/PRD_Classificacao_Bancaria.md @@ -46,8 +46,8 @@ Este documento define os requisitos para o desenvolvimento de um Agente de Intel - **Resources:** Otimizado para rodar localmente limitando uso de RAM. #### 4.3 Métricas e Observabilidade -- **Monitoramento Lógico (AgentOps):** Uso do **Langfuse** (self-hosted) para rastreamento (tracing) passo a passo de cada inferência, gestão de prompt e custo de tokens. -- **Monitoramento de Infraestrutura:** Uso de **Prometheus + Grafana** (via cAdvisor) para monitorar consumo de CPU/RAM dos containers, garantindo que o agente respeite os limites do hardware local. +- **Monitoramento Lógico (AgentOps):** Uso do **Langfuse** (self-hosted) para rastreamento (tracing) passo a passo de cada inferência. (Integração com Zabbix via Webhooks/API desejável, mas não obrigatória nesta fase). +- **Monitoramento de Infraestrutura:** Uso de **Zabbix Agent** para monitoramento de CPU/RAM/IO do host e containers. - **Feedback Loop:** O sistema deve registrar feedback de usuário como "Scores" no trace do Langfuse para avaliação de qualidade. ### 5. Requisitos Não Funcionais @@ -72,9 +72,11 @@ Este documento define os requisitos para o desenvolvimento de um Agente de Intel 3. **Inference:** Prompt montado com a Transação Atual + Exemplos Recuperados é enviado ao Llama 3 Local. 4. **Result:** Agente retorna a classificação sugerida + Score de Confiança. 5. **Human Review (Assíncrono):** Através da aplicação principal, o usuário valida. -6. **Learning:** Se houve correção, a aplicação notifica o Agente/Banco para atualizar o "Golden Record" usado no RAG. +6. **Learning (RAG + Fine-tuning):** + - **Curto Prazo:** Correções atualizam o índice do Qdrant (RAG imediato). + - **Médio Prazo:** Transações confirmadas compõem dataset para **Fine-tuning (LoRA)** periódico do modelo Llama 3.2. Isso "ensina" os padrões ao modelo, reduzindo a dependência de contextos longos e aumentando a velocidade. ### 8. Próximos Passos -- [ ] Definir a versão exata do Llama 3 e método de quantização para CPU. -- [ ] Modelar o schema do banco de dados (Tabela de Transações vs Tabela de Embeddings). -- [ ] Configurar ambiente Python 3.12 travado. +- [ ] Definir a versão exata do Llama 3.2 1B e método de quantização. +- [ ] Configurar container Zabbix Agent. +- [ ] Modelar pipeline de exportação de dados para Fine-tuning futuro.