模型与提供商
OpenCode 是模型无关的,通过 Models.dev 支持 75+ 大语言模型提供商。使用内置免费模型、连接您现有的订阅或使用您自己的 API 密钥。
快速模型选择
| 使用场景 | 推荐模型 | 提供商 |
|---|---|---|
| 入门 | Zen Default | OpenCode (免费) |
| 复杂任务 | Zen Advanced | OpenCode (免费) |
| 快速响应 | Zen Fast | OpenCode (免费) |
| 最佳推理 | Claude 3.5 Sonnet | Anthropic |
| 大上下文 | Gemini 1.5 Pro | |
| 现有订阅 | GPT-4o | OpenAI |
内置模型 (Zen)
最简单的入门方式是使用 OpenCode Zen - 无需 API 密钥:
opencode auth login --provider zen
有关内置模型的详细信息,请参阅 OpenCode Zen。
主要提供商
Anthropic (Claude)
Claude 模型以出色的推理和代码理解能力著称。
可用模型:
- Claude 3.5 Sonnet (推荐)
- Claude 3.5 Haiku
- Claude 3 Opus
设置:
opencode auth login --provider anthropic
或手动配置:
{
"provider": "anthropic",
"model": "claude-3-5-sonnet-20241022",
"apiKey": "your-api-key"
}
获取 API 密钥: Anthropic Console
OpenAI (GPT)
GPT 模型提供强大的通用能力。
可用模型:
- GPT-4o (推荐)
- GPT-4o Mini
- GPT-4 Turbo
- o1-preview
- o1-mini
设置:
opencode auth login --provider openai
或手动配置:
{
"provider": "openai",
"model": "gpt-4o",
"apiKey": "your-api-key"
}
获取 API 密钥: OpenAI Platform
Google (Gemini)
Gemini 提供最大的上下文窗口(最多 1M tokens)。
可用模型:
- Gemini 1.5 Pro (推荐)
- Gemini 1.5 Flash
- Gemini 1.0 Pro
设置:
opencode auth login --provider google
或手动配置:
{
"provider": "google",
"model": "gemini-1.5-pro",
"apiKey": "your-api-key"
}
获取 API 密钥: Google AI Studio
订阅集成
GitHub Copilot
使用您现有的 GitHub Copilot 订阅:
opencode auth login --provider github
这将打开浏览器进行 GitHub 认证。
ChatGPT Plus/Pro
使用您的 ChatGPT Plus 或 Pro 订阅:
opencode auth login --provider openai
在认证过程中选择 ChatGPT 选项。
本地模型
OpenCode 支持本地模型以保护隐私和离线使用:
Ollama
# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# 拉取模型
ollama pull codellama
# 配置 OpenCode
opencode auth login --provider ollama
LM Studio
- 下载并安装 LM Studio
- 在 LM Studio 中加载模型
- 启动本地服务器
- 配置 OpenCode:
{
"provider": "openai-compatible",
"baseUrl": "http://localhost:1234/v1",
"model": "local-model"
}
所有支持的提供商
OpenCode 通过 Models.dev 支持 75+ 提供商:
| 提供商 | 模型 | 最适合 |
|---|---|---|
| Anthropic | Claude 3.5, Claude 3 | 推理、代码 |
| OpenAI | GPT-4o, GPT-4, o1 | 通用 |
| Gemini 1.5, Gemini 1.0 | 大上下文 | |
| Mistral | Mistral Large, Medium | 欧洲数据 |
| Cohere | Command R+ | 企业 |
| Replicate | 各种 | 开源模型 |
| Together AI | 各种 | 开源模型 |
| Groq | Llama, Mixtral | 快速推理 |
| Perplexity | 各种 | 网页搜索 |
| Azure OpenAI | GPT-4, GPT-4o | 企业 |
| AWS Bedrock | 各种 | AWS 集成 |
| … | … | … |
模型配置
配置文件
模型在 ~/.config/opencode/config.json 中配置:
{
"provider": "anthropic",
"model": "claude-3-5-sonnet-20241022",
"apiKey": "your-api-key",
"baseUrl": "optional-custom-url",
"contextWindow": 200000,
"maxTokens": 4096
}
切换模型
在 TUI 中:
/model gpt-4o
/provider openai
通过 CLI:
opencode tui --model claude-3-5-sonnet-20241022 --provider anthropic
环境变量:
export OPENCODE_PROVIDER=anthropic
export OPENCODE_MODEL=claude-3-5-sonnet-20241022
export ANTHROPIC_API_KEY=your-key
模型参数
上下文窗口
控制模型可以查看多少上下文:
{
"contextWindow": 128000
}
最大 Tokens
控制响应长度:
{
"maxTokens": 4096
}
温度
控制随机性(并非所有模型都支持):
{
"temperature": 0.7
}
最佳实践
模型选择
- 从 Zen 开始:免费且针对编程优化
- 根据特定需求升级:Claude 用于推理,Gemini 用于大上下文
- 使用订阅:利用现有的 GitHub Copilot 或 ChatGPT 订阅
成本优化
- 使用 Zen 免费层:每天 100 次请求
- 选择合适的模型:不要将 GPT-4 用于简单任务
- 监控使用情况:定期运行
opencode stats
性能
- 上下文窗口:更大并不总是更好
- 模型选择:简单任务使用更快的模型
- 缓存:OpenCode 尽可能缓存响应
故障排除
API 密钥问题
# 检查 API 密钥是否已设置
opencode auth status
# 重新认证
opencode auth login --provider anthropic
模型不可用
- 检查模型名称是否正确
- 验证您的 API 密钥是否有权访问该模型
- 检查提供商状态页面
速率限制
- 降低请求频率
- 升级您的计划
- 切换到其他提供商