docs: Adota Zabbix e Estratégia de Fine-tuning

Porque foi feita essa alteração? Substitui Prometheus por Zabbix Agent e detalha o fluxo de treinamento contínuo com LoRA.
Quais testes foram feitos? Revisão textual.
A alteração gerou um novo teste? Não.
This commit is contained in:
João Pedro Toledo Goncalves 2026-01-28 09:51:15 -03:00
parent da333b06de
commit 8a6338b501
1 changed files with 8 additions and 6 deletions

View File

@ -46,8 +46,8 @@ Este documento define os requisitos para o desenvolvimento de um Agente de Intel
- **Resources:** Otimizado para rodar localmente limitando uso de RAM.
#### 4.3 Métricas e Observabilidade
- **Monitoramento Lógico (AgentOps):** Uso do **Langfuse** (self-hosted) para rastreamento (tracing) passo a passo de cada inferência, gestão de prompt e custo de tokens.
- **Monitoramento de Infraestrutura:** Uso de **Prometheus + Grafana** (via cAdvisor) para monitorar consumo de CPU/RAM dos containers, garantindo que o agente respeite os limites do hardware local.
- **Monitoramento Lógico (AgentOps):** Uso do **Langfuse** (self-hosted) para rastreamento (tracing) passo a passo de cada inferência. (Integração com Zabbix via Webhooks/API desejável, mas não obrigatória nesta fase).
- **Monitoramento de Infraestrutura:** Uso de **Zabbix Agent** para monitoramento de CPU/RAM/IO do host e containers.
- **Feedback Loop:** O sistema deve registrar feedback de usuário como "Scores" no trace do Langfuse para avaliação de qualidade.
### 5. Requisitos Não Funcionais
@ -72,9 +72,11 @@ Este documento define os requisitos para o desenvolvimento de um Agente de Intel
3. **Inference:** Prompt montado com a Transação Atual + Exemplos Recuperados é enviado ao Llama 3 Local.
4. **Result:** Agente retorna a classificação sugerida + Score de Confiança.
5. **Human Review (Assíncrono):** Através da aplicação principal, o usuário valida.
6. **Learning:** Se houve correção, a aplicação notifica o Agente/Banco para atualizar o "Golden Record" usado no RAG.
6. **Learning (RAG + Fine-tuning):**
- **Curto Prazo:** Correções atualizam o índice do Qdrant (RAG imediato).
- **Médio Prazo:** Transações confirmadas compõem dataset para **Fine-tuning (LoRA)** periódico do modelo Llama 3.2. Isso "ensina" os padrões ao modelo, reduzindo a dependência de contextos longos e aumentando a velocidade.
### 8. Próximos Passos
- [ ] Definir a versão exata do Llama 3 e método de quantização para CPU.
- [ ] Modelar o schema do banco de dados (Tabela de Transações vs Tabela de Embeddings).
- [ ] Configurar ambiente Python 3.12 travado.
- [ ] Definir a versão exata do Llama 3.2 1B e método de quantização.
- [ ] Configurar container Zabbix Agent.
- [ ] Modelar pipeline de exportação de dados para Fine-tuning futuro.