IA Local (Ollama)¶
O ThreatDeflect integra com o Ollama para gerar resumos executivos e analises de risco usando modelos de IA rodando localmente na sua maquina.
Privacidade total
Nenhum dado e enviado para servicos de nuvem. Tudo roda na sua maquina.
Instalacao do Ollama¶
Baixe o instalador em ollama.com
Verificando a instalacao¶
Baixando um modelo¶
Modelos recomendados¶
| Modelo | Tamanho | Uso recomendado |
|---|---|---|
llama3:8b | ~4.7 GB | Uso geral, boa relacao velocidade/qualidade |
gpt-oss:20b | ~12 GB | Resumos mais detalhados, requer mais RAM |
mistral | ~4.1 GB | Rapido, bom para maquinas com menos recursos |
llama3:70b | ~40 GB | Melhor qualidade, requer GPU potente |
Usando no CLI¶
Adicione a flag --ai seguida do nome do modelo:
# Analise de IOCs com resumo por IA
threatdeflect ioc 8.8.8.8 185.172.128.150 --ai llama3
# Analise de repositorio com IA
threatdeflect repo https://github.com/org/repo --ai gpt-oss:20b
# Analise de arquivos com IA
threatdeflect file suspicious.exe --ai mistral
O resumo e incluido automaticamente no relatorio Excel gerado.
Usando na GUI¶
- Realize uma analise (IOC, Repositorio ou Arquivo)
- Selecione o modelo na lista Modelo IA na parte inferior
- Clique em Gerar Resumo em Texto ou Gerar Resumo em PDF
Configuracao do endpoint¶
Por padrao, o Ollama roda em http://localhost:11434/api/generate.
Para alterar:
Solucao de problemas¶
"A IA nao retornou uma resposta"¶
Verifique se o modelo esta respondendo:
curl http://localhost:11434/api/generate -d '{"model":"llama3:8b","prompt":"test","stream":false}' | jq .response
Se retornar null, o modelo pode estar corrompido:
Ollama nao esta rodando¶
Ou inicie o servico: