コンテンツにスキップ

モデルとプロバイダー

OpenCode はモデル非依存で、Models.dev を通じて 75 以上の LLM プロバイダーをサポートしています。内蔵無料モデルを使用するか、既存のサブスクリプションに接続するか、独自の API キーを持参してください。

クイックモデル選択

使用例推奨モデルプロバイダー
はじめにZen DefaultOpenCode (無料)
複雑なタスクZen AdvancedOpenCode (無料)
高速応答Zen FastOpenCode (無料)
最高の推論Claude 3.5 SonnetAnthropic
大きなコンテキストGemini 1.5 ProGoogle
既存のサブスクリプションGPT-4oOpenAI

内蔵モデル (Zen)

最も簡単な始め方は OpenCode Zen を使用することです - API キー不要:

opencode auth login --provider zen

内蔵モデルの詳細については、OpenCode Zen をご覧ください。

主要プロバイダー

Anthropic (Claude)

Claude モデルは優れた推論とコード理解で知られています。

利用可能なモデル:

  • Claude 3.5 Sonnet (推奨)
  • Claude 3.5 Haiku
  • Claude 3 Opus

設定:

opencode auth login --provider anthropic

または手動で設定:

{
  "provider": "anthropic",
  "model": "claude-3-5-sonnet-20241022",
  "apiKey": "your-api-key"
}

API キーを取得: Anthropic Console

OpenAI (GPT)

GPT モデルは強力な汎用機能を提供します。

利用可能なモデル:

  • GPT-4o (推奨)
  • GPT-4o Mini
  • GPT-4 Turbo
  • o1-preview
  • o1-mini

設定:

opencode auth login --provider openai

または手動で設定:

{
  "provider": "openai",
  "model": "gpt-4o",
  "apiKey": "your-api-key"
}

API キーを取得: OpenAI Platform

Google (Gemini)

Gemini は最大のコンテキストウィンドウ(最大 1M トークン)を提供します。

利用可能なモデル:

  • Gemini 1.5 Pro (推奨)
  • Gemini 1.5 Flash
  • Gemini 1.0 Pro

設定:

opencode auth login --provider google

または手動で設定:

{
  "provider": "google",
  "model": "gemini-1.5-pro",
  "apiKey": "your-api-key"
}

API キーを取得: Google AI Studio

サブスクリプション統合

GitHub Copilot

既存の GitHub Copilot サブスクリプションを使用:

opencode auth login --provider github

ブラウザが開き、GitHub で認証します。

ChatGPT Plus/Pro

ChatGPT Plus または Pro サブスクリプションを使用:

opencode auth login --provider openai

認証中に ChatGPT オプションを選択します。

ローカルモデル

OpenCode はプライバシーとオフライン使用のためにローカルモデルをサポートしています:

Ollama

# Ollama をインストール
curl -fsSL https://ollama.ai/install.sh | sh

# モデルをプル
ollama pull codellama

# OpenCode を設定
opencode auth login --provider ollama

LM Studio

  1. LM Studio をダウンロードしてインストール
  2. LM Studio でモデルをロード
  3. ローカルサーバーを起動
  4. OpenCode を設定:
{
  "provider": "openai-compatible",
  "baseUrl": "http://localhost:1234/v1",
  "model": "local-model"
}

サポートされているすべてのプロバイダー

OpenCode は Models.dev を通じて 75 以上のプロバイダーをサポートしています:

プロバイダーモデル最適
AnthropicClaude 3.5, Claude 3推論、コード
OpenAIGPT-4o, GPT-4, o1汎用
GoogleGemini 1.5, Gemini 1.0大きなコンテキスト
MistralMistral Large, Mediumヨーロッパデータ
CohereCommand R+エンタープライズ
Replicate各種オープンソースモデル
Together AI各種オープンソースモデル
GroqLlama, Mixtral高速推論
Perplexity各種ウェブ検索
Azure OpenAIGPT-4, GPT-4oエンタープライズ
AWS Bedrock各種AWS 統合

すべてのプロバイダーを表示 →

モデル設定

設定ファイル

モデルは ~/.config/opencode/config.json で設定されます:

{
  "provider": "anthropic",
  "model": "claude-3-5-sonnet-20241022",
  "apiKey": "your-api-key",
  "baseUrl": "optional-custom-url",
  "contextWindow": 200000,
  "maxTokens": 4096
}

モデルの切り替え

TUI で:

/model gpt-4o
/provider openai

CLI 経由:

opencode tui --model claude-3-5-sonnet-20241022 --provider anthropic

環境変数:

export OPENCODE_PROVIDER=anthropic
export OPENCODE_MODEL=claude-3-5-sonnet-20241022
export ANTHROPIC_API_KEY=your-key

モデルパラメータ

コンテキストウィンドウ

モデルが参照できるコンテキストの量を制御:

{
  "contextWindow": 128000
}

最大トークン

応答の長さを制御:

{
  "maxTokens": 4096
}

温度

ランダム性を制御(すべてのモデルがサポートしているわけではありません):

{
  "temperature": 0.7
}

ベストプラクティス

モデル選択

  1. Zen から始める:無料でコーディングに最適化
  2. 特定のニーズに合わせてアップグレード:推論に Claude、大きなコンテキストに Gemini
  3. サブスクリプションを使用:既存の GitHub Copilot または ChatGPT サブスクリプションを活用

コスト最適化

  1. Zen 無料枠を使用:1 日 100 リクエスト
  2. 適切なモデルを選択:単純なタスクに GPT-4 を使用しない
  3. 使用状況を監視:定期的に opencode stats を実行

パフォーマンス

  1. コンテキストウィンドウ:大きいほど良いとは限らない
  2. モデル選択:単純なタスクにはより速いモデル
  3. キャッシュ:OpenCode は可能な限り応答をキャッシュ

トラブルシューティング

API キーの問題

# API キーが設定されているか確認
opencode auth status

# 再認証
opencode auth login --provider anthropic

モデルが利用できない

  1. モデル名が正しいか確認
  2. API キーがモデルにアクセスできるか確認
  3. プロバイダーのステータスページを確認

レート制限

  1. リクエスト頻度を減らす
  2. プランをアップグレード
  3. 別のプロバイダーに切り替え

次のステップ