AI Providers
O terraview suporta múltiplos providers de IA organizados em quatro categorias. Com os providers OpenRouter e Custom, é possível acessar virtualmente qualquer modelo de IA disponível no mercado.
Providers via API (requer API key)
| Provider | Variável de ambiente | Modelo padrão | Exemplos de modelos |
|---|---|---|---|
| gemini | GEMINI_API_KEY |
gemini-2.5-flash | gemini-2.5-flash, gemini-2.5-pro, gemini-2.0-flash |
| claude | ANTHROPIC_API_KEY |
claude-haiku-4-5 | claude-haiku-4-5, claude-sonnet-4-6, claude-opus-4-6 |
| openai | OPENAI_API_KEY |
gpt-4o-mini | gpt-4o-mini, gpt-4o, o3-mini |
| deepseek | DEEPSEEK_API_KEY |
deepseek-v3.2 | deepseek-chat, deepseek-reasoner |
| openrouter | OPENROUTER_API_KEY |
google/gemini-2.5-flash | Qualquer modelo disponível no OpenRouter |
Providers via CLI (subscription — sem API key)
| Provider | CLI necessário | Instalação | Modelo padrão |
|---|---|---|---|
| gemini-cli | gemini |
npm install -g @google/gemini-cli |
gemini-2.5-flash |
| claude-code | claude |
npm install -g @anthropic-ai/claude-code |
claude-haiku-4-5 |
Estes providers usam sua assinatura pessoal (Google/Anthropic) para billing. Não é necessário API key — basta ter o CLI instalado e autenticado.
Provider local (sem internet)
| Provider | Requisito | Modelo padrão |
|---|---|---|
| ollama | Ollama rodando localmente | llama3.1:8b |
terraview provider install ollama # instalar Ollama + pull do modelo padrão
terraview provider install ollama --model codellama:13b # modelo personalizado
Integração com IAs por Assinatura
O terraview oferece integração nativa com IAs por assinatura — providers que utilizam o CLI oficial do Google (Gemini CLI) ou da Anthropic (Claude Code) para análise, cobrando na assinatura pessoal do desenvolvedor em vez de exigir API keys ou créditos pré-pagos.
Como funciona
Em vez de fazer requisições HTTP diretas para APIs, o terraview invoca os binários CLI instalados localmente (gemini ou claude) como subprocessos. Isso significa que:
- Sem API key — autenticação é feita pela sessão do CLI já logada na sua conta Google ou Anthropic
- Billing pela assinatura — o custo é absorvido pelo plano que você já paga (Google One AI Premium, Anthropic Max, etc.)
- Sem configuração extra — se o CLI funciona no seu terminal, funciona no terraview
- Mesmos modelos da API — acesso a modelos como
gemini-3,gemini-2.5-pro,claude-sonnet-4-5,claude-opus-4-6
Configuração
# Gemini CLI (requer Google One AI Premium ou Google AI Studio login)
npm install -g @google/gemini-cli
gemini # autenticar na primeira execução
terraview provider use gemini-cli # definir como provider padrão
# Claude Code (requer Anthropic Max, Pro ou Team)
npm install -g @anthropic-ai/claude-code
claude # autenticar na primeira execução
terraview provider use claude-code # definir como provider padrão
Uso
# Scan com Gemini CLI
terraview scan checkov --provider gemini-cli
terraview scan checkov --provider gemini-cli --model gemini-3
# Scan com Claude Code
terraview scan checkov --provider claude-code
terraview scan checkov --provider claude-code --model claude-opus-4-6
# Explicação de infraestrutura com provider CLI
terraview explain --provider claude-code
# Drift analysis com IA por assinatura
terraview drift --intelligence --provider gemini-cli
Provider customizado (OpenAI-compatible)
| Provider | Variável de ambiente | URL obrigatória | Modelo padrão |
|---|---|---|---|
| custom | CUSTOM_LLM_API_KEY |
Sim (url no config) |
gpt-4o-mini |
O provider custom funciona com qualquer API compatível com o padrão /v1/chat/completions da OpenAI, incluindo: Grok (xAI), Groq, Mistral, Together AI, Fireworks, Perplexity, LM Studio, vLLM e Ollama em modo OpenAI.
Configuração
# .terraview.yaml
llm:
provider: custom
model: grok-3-mini
url: https://api.x.ai
# api_key via CUSTOM_LLM_API_KEY env var
Uso
# Grok (xAI)
export CUSTOM_LLM_API_KEY="xai-..."
terraview scan checkov --provider custom --model grok-3-mini
# Groq
export CUSTOM_LLM_API_KEY="gsk_..."
terraview provider use custom llama-3.3-70b
# url: https://api.groq.com/openai no .terraview.yaml
# Mistral
export CUSTOM_LLM_API_KEY="..."
terraview provider use custom mistral-large-latest
# url: https://api.mistral.ai no .terraview.yaml
Modelos sugeridos
gpt-4o-mini, gpt-4o, grok-3, grok-3-mini, mistral-large-latest, llama-3.3-70b, deepseek-v3
API vs CLI (subscription) — quando usar cada um
| Aspecto | API (key) | CLI (subscription) |
|---|---|---|
| Configuração | Criar conta + gerar API key | Instalar CLI + fazer login |
| Billing | Pay-per-token (créditos) | Plano mensal fixo |
| Ideal para | CI/CD, pipelines automatizadas | Desenvolvimento local, uso pessoal |
| Rate limits | Limites da API (varia por tier) | Limites da assinatura |
| Offline | Não | Não (mas Ollama sim) |
| Providers | gemini, claude, openai, deepseek, openrouter, custom | gemini-cli, claude-code |
Dica
Para uso local no dia a dia, providers por assinatura são a escolha mais prática — zero configuração de keys, billing simples. Para CI/CD, prefira providers via API (ou Ollama para ambientes air-gapped).