跳转到内容

模型与提供商

OpenCode 是模型无关的,通过 Models.dev 支持 75+ 大语言模型提供商。使用内置免费模型、连接您现有的订阅或使用您自己的 API 密钥。

快速模型选择

使用场景推荐模型提供商
入门Zen DefaultOpenCode (免费)
复杂任务Zen AdvancedOpenCode (免费)
快速响应Zen FastOpenCode (免费)
最佳推理Claude 3.5 SonnetAnthropic
大上下文Gemini 1.5 ProGoogle
现有订阅GPT-4oOpenAI

内置模型 (Zen)

最简单的入门方式是使用 OpenCode Zen - 无需 API 密钥:

opencode auth login --provider zen

有关内置模型的详细信息,请参阅 OpenCode Zen

主要提供商

Anthropic (Claude)

Claude 模型以出色的推理和代码理解能力著称。

可用模型:

  • Claude 3.5 Sonnet (推荐)
  • Claude 3.5 Haiku
  • Claude 3 Opus

设置:

opencode auth login --provider anthropic

或手动配置:

{
  "provider": "anthropic",
  "model": "claude-3-5-sonnet-20241022",
  "apiKey": "your-api-key"
}

获取 API 密钥: Anthropic Console

OpenAI (GPT)

GPT 模型提供强大的通用能力。

可用模型:

  • GPT-4o (推荐)
  • GPT-4o Mini
  • GPT-4 Turbo
  • o1-preview
  • o1-mini

设置:

opencode auth login --provider openai

或手动配置:

{
  "provider": "openai",
  "model": "gpt-4o",
  "apiKey": "your-api-key"
}

获取 API 密钥: OpenAI Platform

Google (Gemini)

Gemini 提供最大的上下文窗口(最多 1M tokens)。

可用模型:

  • Gemini 1.5 Pro (推荐)
  • Gemini 1.5 Flash
  • Gemini 1.0 Pro

设置:

opencode auth login --provider google

或手动配置:

{
  "provider": "google",
  "model": "gemini-1.5-pro",
  "apiKey": "your-api-key"
}

获取 API 密钥: Google AI Studio

订阅集成

GitHub Copilot

使用您现有的 GitHub Copilot 订阅:

opencode auth login --provider github

这将打开浏览器进行 GitHub 认证。

ChatGPT Plus/Pro

使用您的 ChatGPT Plus 或 Pro 订阅:

opencode auth login --provider openai

在认证过程中选择 ChatGPT 选项。

本地模型

OpenCode 支持本地模型以保护隐私和离线使用:

Ollama

# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# 拉取模型
ollama pull codellama

# 配置 OpenCode
opencode auth login --provider ollama

LM Studio

  1. 下载并安装 LM Studio
  2. 在 LM Studio 中加载模型
  3. 启动本地服务器
  4. 配置 OpenCode:
{
  "provider": "openai-compatible",
  "baseUrl": "http://localhost:1234/v1",
  "model": "local-model"
}

所有支持的提供商

OpenCode 通过 Models.dev 支持 75+ 提供商:

提供商模型最适合
AnthropicClaude 3.5, Claude 3推理、代码
OpenAIGPT-4o, GPT-4, o1通用
GoogleGemini 1.5, Gemini 1.0大上下文
MistralMistral Large, Medium欧洲数据
CohereCommand R+企业
Replicate各种开源模型
Together AI各种开源模型
GroqLlama, Mixtral快速推理
Perplexity各种网页搜索
Azure OpenAIGPT-4, GPT-4o企业
AWS Bedrock各种AWS 集成

查看所有提供商 →

模型配置

配置文件

模型在 ~/.config/opencode/config.json 中配置:

{
  "provider": "anthropic",
  "model": "claude-3-5-sonnet-20241022",
  "apiKey": "your-api-key",
  "baseUrl": "optional-custom-url",
  "contextWindow": 200000,
  "maxTokens": 4096
}

切换模型

在 TUI 中:

/model gpt-4o
/provider openai

通过 CLI:

opencode tui --model claude-3-5-sonnet-20241022 --provider anthropic

环境变量:

export OPENCODE_PROVIDER=anthropic
export OPENCODE_MODEL=claude-3-5-sonnet-20241022
export ANTHROPIC_API_KEY=your-key

模型参数

上下文窗口

控制模型可以查看多少上下文:

{
  "contextWindow": 128000
}

最大 Tokens

控制响应长度:

{
  "maxTokens": 4096
}

温度

控制随机性(并非所有模型都支持):

{
  "temperature": 0.7
}

最佳实践

模型选择

  1. 从 Zen 开始:免费且针对编程优化
  2. 根据特定需求升级:Claude 用于推理,Gemini 用于大上下文
  3. 使用订阅:利用现有的 GitHub Copilot 或 ChatGPT 订阅

成本优化

  1. 使用 Zen 免费层:每天 100 次请求
  2. 选择合适的模型:不要将 GPT-4 用于简单任务
  3. 监控使用情况:定期运行 opencode stats

性能

  1. 上下文窗口:更大并不总是更好
  2. 模型选择:简单任务使用更快的模型
  3. 缓存:OpenCode 尽可能缓存响应

故障排除

API 密钥问题

# 检查 API 密钥是否已设置
opencode auth status

# 重新认证
opencode auth login --provider anthropic

模型不可用

  1. 检查模型名称是否正确
  2. 验证您的 API 密钥是否有权访问该模型
  3. 检查提供商状态页面

速率限制

  1. 降低请求频率
  2. 升级您的计划
  3. 切换到其他提供商

下一步