minions-ai-agents/docs/Llama 3.2 1B_ Classificação...

3.2 KiB

Sim, o Llama 3.2 1B Instruct consegue utilizar uma memória ou banco de dados externo como referência para classificar transações através de uma técnica chamada RAG (Retrieval-Augmented Generation).

Embora o modelo seja "minúsculo", ele é treinado especificamente para seguir instruções e usar contextos fornecidos no prompt. De fato, pesquisas indicam que modelos dessa escala (1B) podem saltar de uma precisão medíocre (ex: 20%) para níveis de produção (ex: 85% ou mais) quando recebem exemplos relevantes recuperados de um banco de dados.

Aqui está como você deve estruturar essa "ponte" entre o agente e a memória no seu hardware local:

1. O Fluxo de Memória para o Agente

Como o modelo 1B tem capacidade de raciocínio limitada, você não deve esperar que ele "saiba" o que é uma transação obscura sozinho. O fluxo ideal no seu Xeon v3 seria:

  1. Busca Semântica: Sua "cola" em Python captura a transação bruta (ex: "UBR* TRIP PENDING").

  2. Recuperação: O sistema consulta o Qdrant em busca das 3 ou 5 transações mais parecidas que já foram classificadas no passado para aquele cliente específico.

  3. Injeção de Contexto (Few-shot): Essas referências são inseridas no prompt do Llama 3.2 1B como exemplos: "Aqui estão transações similares passadas:,. Agora classifique esta:".

2. Peças de Tecnologia Necessárias (A "Cola")

Para que isso funcione de forma otimizada no seu servidor Intel Xeon:

  • Embeddings Leves: Use o modelo BGE-small-en-v1.5 ou all-MiniLM-L6-v2. Eles rodam em CPU em menos de 50ms e servem para converter o texto da transação em um vetor que o Qdrant entende.

  • Segregação por Cliente (Multi-tenancy): No Qdrant, configure cada vetor com um payload contendo o tenant_id ou client_id. Quando o agente for classificar a transação do Cliente A, sua "cola" filtrará a memória para que ele nunca veja dados do Cliente B.

  • Integridade com PydanticAI: Use o framework PydanticAI para garantir que o Llama 3.2 1B responda apenas categorias válidas (Enum). Se o modelo "alucinar" uma categoria inexistente, o Pydantic rejeita a resposta e força uma correção instantânea.

3. Vantagens no Xeon E5-2699 v3

  • Velocidade: Por ser um modelo de 1B, a inferência será quase instantânea na sua CPU, mesmo sem GPU.
  • Baixo Custo de Memória: O Qdrant configurado com on_disk: true e quantização escalar reduzirá o uso de RAM em 75%, permitindo que você armazene milhões de transações históricas para referência sem explodir o custo de hardware.
Componente Recomendação para o Agente de Transações
Modelo de Inferência Llama 3.2 1B Instruct (GGUF Q4)
Banco de Memória Qdrant (com filtragem por payload is_tenant=true)
Modelo de Busca BGE-small-en-v1.5 (via FastEmbed/CPU)
Framework "Cola" Python + PydanticAI (para validação de tipos)

Resumo: O Llama 3.2 1B não "guarda" o banco de dados dentro dele, mas ele é um excelente "leitor" de referências. Ao fornecer exemplos reais do seu banco de dados para ele no momento da pergunta, você transforma um modelo minúsculo em um especialista altamente preciso para o seu domínio financeiro.