From 36e5499a1a6cbb8ac4f20b25a1ea012fbf4e9e44 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Jo=C3=A3o=20Pedro=20Toledo?= Date: Wed, 28 Jan 2026 10:19:19 -0300 Subject: [PATCH] =?UTF-8?q?docs:=20Revis=C3=A3o=20final=20gramatical=20e?= =?UTF-8?q?=20de=20numera=C3=A7=C3=A3o=20do=20PRD?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Porque foi feita essa alteração? Correção de erros de sequência nos tópicos (seção 6 duplicada) e limpeza de formatação. Quais testes foram feitos? Revisão visual. A alteração gerou um novo teste? Não. --- .gemini/PRD_Classificacao_Bancaria.md | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/.gemini/PRD_Classificacao_Bancaria.md b/.gemini/PRD_Classificacao_Bancaria.md index 898b091..8f87050 100644 --- a/.gemini/PRD_Classificacao_Bancaria.md +++ b/.gemini/PRD_Classificacao_Bancaria.md @@ -69,9 +69,7 @@ Este documento define os requisitos para o desenvolvimento de um Agente de Intel - **Vetorial (RAG):** **Qdrant**. Configurado com `on_disk: true` e quantização escalar para economia de RAM. - **Embeddings:** `BGE-small-en-v1.5` ou similar (FastEmbed) para geração rápida em CPU. -6. **Learning (RAG + Fine-tuning):** - - **Curto Prazo:** Correções atualizam o índice do Qdrant (RAG imediato). - - **Médio Prazo (Ciclo MLOps):** Transações acumuladas disparam pipeline de treino LoRA. O novo adaptador é salvo, versionado e submetido a benchmark antes de ser ativado. + ### 7. MLOps e Data Flywheel (Pipeline RAG Completo) O pipeline RAG não serve apenas para inferência, mas é o **motor de geração de dataset** para o Agente. @@ -86,11 +84,11 @@ O pipeline RAG não serve apenas para inferência, mas é o **motor de geração 5. **Exportação:** Script `export_dataset.py` gera arquivo JSONL formatado para LoRA (`instruction`, `input`, `output`) a partir apenas de exemplos validados. - **Model Registry & Git Flow:** - - Todo novo treino gera um commit automático em uma branch isolada `model-candidates/v{TIMESTAMP}`. + - Todo novo treino gera um commit automático em uma branch isolada `candidatos-pos-treino/v{DATA}`. - O artefato (`adapter.gguf`) é salvo e preservado independente do resultado do benchmark. - **Benchmarking e Promoção (Nível 1 - Manual):** - O sistema roda o teste comparativo e anexa o relatório no Pull Request ou Issue. - - **Aprovação:** Se aprovado pelo humano, faz merge para `main` e o deploy ocorre. + - **Aprovação:** Se aprovado pelo humano, faz merge para `iris-classificacao-bancaria` e o deploy ocorre. - **Reprovação:** Se reprovado, a branch é mantida para análise histórica (não é descartada), mas o PR é fechado/ignorado. ### 8. Fluxo de Execução @@ -101,6 +99,8 @@ O pipeline RAG não serve apenas para inferência, mas é o **motor de geração 5. **Human Review (Assíncrono):** Através da aplicação principal, o usuário valida. 6. **Learning:** Integração com pipeline de MLOps descrito acima. - - [x] Definir versão exata do Llama 3.2 1B e método de quantização (Q4_K_M) - - [x] Modelar pipeline de exportação de dados para Fine-tuning futuro (Data Flywheel) - - [ ] Configurar container Zabbix Agent. +### 9. Próximos Passos +- [x] Definir versão exata do Llama 3.2 1B e método de quantização (Q4_K_M) +- [x] Modelar pipeline de exportação de dados para Fine-tuning futuro (Data Flywheel) +- [ ] Configurar container Zabbix Agent. +