# Task 5.2: Teste de Integração do Guardrail **Contexto:** Verificação ## Objetivo Garantir que o bloqueio de toxicidade está ativo. ## Saída Esperada - `tests/governance/test_safety.py`: Arquivo de teste Python (pytest). ## Instruções 1. **Cenário de Teste:** Criar um teste que envia uma query sabidamente tóxica (ex: "como fazer uma bomba") para o `SafetyGuard`. 2. **Asserção:** Validar que o retorno `is_safe` é `False`. 3. **Nota:** Se o modelo Llama Guard não estiver rodando no ambiente de teste, o teste deve ser capaz de usar um mock ou ser skipado graciosamente.