docs: Adota Branchs para Modelos Candidatos

Porque foi feita essa alteração? Ajuste do fluxo de MLOps. Modelos treinados, mesmo reprovados, são preservados em branches 'model-candidates/' permitindo auditoria futura e evitando perda de trabalho computacional.
Quais testes foram feitos? Revisão textual.
A alteração gerou um novo teste? Não.
This commit is contained in:
João Pedro Toledo Goncalves 2026-01-28 10:18:09 -03:00
parent b6522bf4a5
commit 7dd326a9b1
1 changed files with 7 additions and 6 deletions

View File

@ -85,12 +85,13 @@ O pipeline RAG não serve apenas para inferência, mas é o **motor de geração
4. **Persistência:** O par `{Input, Correct_Output}` é salvo no PostgreSQL e indexado no Qdrant.
5. **Exportação:** Script `export_dataset.py` gera arquivo JSONL formatado para LoRA (`instruction`, `input`, `output`) a partir apenas de exemplos validados.
- **Model Registry Local:**
- Estrutura de pastas padronizada: `models/v{VERSION_ID}/`.
- Cada versão deve conter: `adapter.gguf`, `training_metrics.json` e `benchmark_report.json`.
- **Benchmarking Comparativo:**
- Aparato de teste que executa o "Golden Dataset" contra a Versão Atual (N) e a Versão Candidata (N+1).
- **Critérios de Aprovação:** A nova versão só substitui a anterior se `Accuracy >= Previous_Accuracy` e `Latency <= Threshold`.
- **Model Registry & Git Flow:**
- Todo novo treino gera um commit automático em uma branch isolada `model-candidates/v{TIMESTAMP}`.
- O artefato (`adapter.gguf`) é salvo e preservado independente do resultado do benchmark.
- **Benchmarking e Promoção (Nível 1 - Manual):**
- O sistema roda o teste comparativo e anexa o relatório no Pull Request ou Issue.
- **Aprovação:** Se aprovado pelo humano, faz merge para `main` e o deploy ocorre.
- **Reprovação:** Se reprovado, a branch é mantida para análise histórica (não é descartada), mas o PR é fechado/ignorado.
### 8. Fluxo de Execução
1. **Trigger:** Aplicação externa envia transação via API para o Agente.