モデルとプロバイダー
OpenCode はモデル非依存で、Models.dev を通じて 75 以上の LLM プロバイダーをサポートしています。内蔵無料モデルを使用するか、既存のサブスクリプションに接続するか、独自の API キーを持参してください。
クイックモデル選択
| 使用例 | 推奨モデル | プロバイダー |
|---|---|---|
| はじめに | Zen Default | OpenCode (無料) |
| 複雑なタスク | Zen Advanced | OpenCode (無料) |
| 高速応答 | Zen Fast | OpenCode (無料) |
| 最高の推論 | Claude 3.5 Sonnet | Anthropic |
| 大きなコンテキスト | Gemini 1.5 Pro | |
| 既存のサブスクリプション | GPT-4o | OpenAI |
内蔵モデル (Zen)
最も簡単な始め方は OpenCode Zen を使用することです - API キー不要:
opencode auth login --provider zen
内蔵モデルの詳細については、OpenCode Zen をご覧ください。
主要プロバイダー
Anthropic (Claude)
Claude モデルは優れた推論とコード理解で知られています。
利用可能なモデル:
- Claude 3.5 Sonnet (推奨)
- Claude 3.5 Haiku
- Claude 3 Opus
設定:
opencode auth login --provider anthropic
または手動で設定:
{
"provider": "anthropic",
"model": "claude-3-5-sonnet-20241022",
"apiKey": "your-api-key"
}
API キーを取得: Anthropic Console
OpenAI (GPT)
GPT モデルは強力な汎用機能を提供します。
利用可能なモデル:
- GPT-4o (推奨)
- GPT-4o Mini
- GPT-4 Turbo
- o1-preview
- o1-mini
設定:
opencode auth login --provider openai
または手動で設定:
{
"provider": "openai",
"model": "gpt-4o",
"apiKey": "your-api-key"
}
API キーを取得: OpenAI Platform
Google (Gemini)
Gemini は最大のコンテキストウィンドウ(最大 1M トークン)を提供します。
利用可能なモデル:
- Gemini 1.5 Pro (推奨)
- Gemini 1.5 Flash
- Gemini 1.0 Pro
設定:
opencode auth login --provider google
または手動で設定:
{
"provider": "google",
"model": "gemini-1.5-pro",
"apiKey": "your-api-key"
}
API キーを取得: Google AI Studio
サブスクリプション統合
GitHub Copilot
既存の GitHub Copilot サブスクリプションを使用:
opencode auth login --provider github
ブラウザが開き、GitHub で認証します。
ChatGPT Plus/Pro
ChatGPT Plus または Pro サブスクリプションを使用:
opencode auth login --provider openai
認証中に ChatGPT オプションを選択します。
ローカルモデル
OpenCode はプライバシーとオフライン使用のためにローカルモデルをサポートしています:
Ollama
# Ollama をインストール
curl -fsSL https://ollama.ai/install.sh | sh
# モデルをプル
ollama pull codellama
# OpenCode を設定
opencode auth login --provider ollama
LM Studio
- LM Studio をダウンロードしてインストール
- LM Studio でモデルをロード
- ローカルサーバーを起動
- OpenCode を設定:
{
"provider": "openai-compatible",
"baseUrl": "http://localhost:1234/v1",
"model": "local-model"
}
サポートされているすべてのプロバイダー
OpenCode は Models.dev を通じて 75 以上のプロバイダーをサポートしています:
| プロバイダー | モデル | 最適 |
|---|---|---|
| Anthropic | Claude 3.5, Claude 3 | 推論、コード |
| OpenAI | GPT-4o, GPT-4, o1 | 汎用 |
| Gemini 1.5, Gemini 1.0 | 大きなコンテキスト | |
| Mistral | Mistral Large, Medium | ヨーロッパデータ |
| Cohere | Command R+ | エンタープライズ |
| Replicate | 各種 | オープンソースモデル |
| Together AI | 各種 | オープンソースモデル |
| Groq | Llama, Mixtral | 高速推論 |
| Perplexity | 各種 | ウェブ検索 |
| Azure OpenAI | GPT-4, GPT-4o | エンタープライズ |
| AWS Bedrock | 各種 | AWS 統合 |
| … | … | … |
モデル設定
設定ファイル
モデルは ~/.config/opencode/config.json で設定されます:
{
"provider": "anthropic",
"model": "claude-3-5-sonnet-20241022",
"apiKey": "your-api-key",
"baseUrl": "optional-custom-url",
"contextWindow": 200000,
"maxTokens": 4096
}
モデルの切り替え
TUI で:
/model gpt-4o
/provider openai
CLI 経由:
opencode tui --model claude-3-5-sonnet-20241022 --provider anthropic
環境変数:
export OPENCODE_PROVIDER=anthropic
export OPENCODE_MODEL=claude-3-5-sonnet-20241022
export ANTHROPIC_API_KEY=your-key
モデルパラメータ
コンテキストウィンドウ
モデルが参照できるコンテキストの量を制御:
{
"contextWindow": 128000
}
最大トークン
応答の長さを制御:
{
"maxTokens": 4096
}
温度
ランダム性を制御(すべてのモデルがサポートしているわけではありません):
{
"temperature": 0.7
}
ベストプラクティス
モデル選択
- Zen から始める:無料でコーディングに最適化
- 特定のニーズに合わせてアップグレード:推論に Claude、大きなコンテキストに Gemini
- サブスクリプションを使用:既存の GitHub Copilot または ChatGPT サブスクリプションを活用
コスト最適化
- Zen 無料枠を使用:1 日 100 リクエスト
- 適切なモデルを選択:単純なタスクに GPT-4 を使用しない
- 使用状況を監視:定期的に
opencode statsを実行
パフォーマンス
- コンテキストウィンドウ:大きいほど良いとは限らない
- モデル選択:単純なタスクにはより速いモデル
- キャッシュ:OpenCode は可能な限り応答をキャッシュ
トラブルシューティング
API キーの問題
# API キーが設定されているか確認
opencode auth status
# 再認証
opencode auth login --provider anthropic
モデルが利用できない
- モデル名が正しいか確認
- API キーがモデルにアクセスできるか確認
- プロバイダーのステータスページを確認
レート制限
- リクエスト頻度を減らす
- プランをアップグレード
- 別のプロバイダーに切り替え