diff --git a/.gemini/PRD_Classificacao_Bancaria.md b/.gemini/PRD_Classificacao_Bancaria.md index 898b091..8f87050 100644 --- a/.gemini/PRD_Classificacao_Bancaria.md +++ b/.gemini/PRD_Classificacao_Bancaria.md @@ -69,9 +69,7 @@ Este documento define os requisitos para o desenvolvimento de um Agente de Intel - **Vetorial (RAG):** **Qdrant**. Configurado com `on_disk: true` e quantização escalar para economia de RAM. - **Embeddings:** `BGE-small-en-v1.5` ou similar (FastEmbed) para geração rápida em CPU. -6. **Learning (RAG + Fine-tuning):** - - **Curto Prazo:** Correções atualizam o índice do Qdrant (RAG imediato). - - **Médio Prazo (Ciclo MLOps):** Transações acumuladas disparam pipeline de treino LoRA. O novo adaptador é salvo, versionado e submetido a benchmark antes de ser ativado. + ### 7. MLOps e Data Flywheel (Pipeline RAG Completo) O pipeline RAG não serve apenas para inferência, mas é o **motor de geração de dataset** para o Agente. @@ -86,11 +84,11 @@ O pipeline RAG não serve apenas para inferência, mas é o **motor de geração 5. **Exportação:** Script `export_dataset.py` gera arquivo JSONL formatado para LoRA (`instruction`, `input`, `output`) a partir apenas de exemplos validados. - **Model Registry & Git Flow:** - - Todo novo treino gera um commit automático em uma branch isolada `model-candidates/v{TIMESTAMP}`. + - Todo novo treino gera um commit automático em uma branch isolada `candidatos-pos-treino/v{DATA}`. - O artefato (`adapter.gguf`) é salvo e preservado independente do resultado do benchmark. - **Benchmarking e Promoção (Nível 1 - Manual):** - O sistema roda o teste comparativo e anexa o relatório no Pull Request ou Issue. - - **Aprovação:** Se aprovado pelo humano, faz merge para `main` e o deploy ocorre. + - **Aprovação:** Se aprovado pelo humano, faz merge para `iris-classificacao-bancaria` e o deploy ocorre. - **Reprovação:** Se reprovado, a branch é mantida para análise histórica (não é descartada), mas o PR é fechado/ignorado. ### 8. Fluxo de Execução @@ -101,6 +99,8 @@ O pipeline RAG não serve apenas para inferência, mas é o **motor de geração 5. **Human Review (Assíncrono):** Através da aplicação principal, o usuário valida. 6. **Learning:** Integração com pipeline de MLOps descrito acima. - - [x] Definir versão exata do Llama 3.2 1B e método de quantização (Q4_K_M) - - [x] Modelar pipeline de exportação de dados para Fine-tuning futuro (Data Flywheel) - - [ ] Configurar container Zabbix Agent. +### 9. Próximos Passos +- [x] Definir versão exata do Llama 3.2 1B e método de quantização (Q4_K_M) +- [x] Modelar pipeline de exportação de dados para Fine-tuning futuro (Data Flywheel) +- [ ] Configurar container Zabbix Agent. +