Copilot CLIホスト型モデルではなく、BYOK (Bring Your Own Key) とも呼ばれる独自の LLM プロバイダーを使用するようにGitHubを構成できます。 これにより、OpenAI と互換性のあるエンドポイント、Azure OpenAI、または Anthropic (Ollama などのローカルで実行されるモデルを含む) に接続できます。
前提条件
-
Copilot CLI がインストールされています。 「[AUTOTITLE](/copilot/how-tos/copilot-cli/set-up-copilot-cli/install-copilot-cli)」を参照してください。 - サポートされている LLM プロバイダーの API キーを持っているか、ローカル モデル (Ollama など) を実行している。
サポートされているプロバイダー
Copilot CLI では、次の 3 種類のプロバイダーがサポートされています。
| プロバイダーの種類 | 互換性のあるサービス |
|---|---|
openai | OpenAI、Ollama、vLLM、Foundry Local、およびその他の OpenAI Chat Completions API 互換エンドポイント。 これは既定のプロバイダーの種類です。 |
azure | Azure OpenAI Service。 |
anthropic | アントロピック (クロード モデル)。 |
その他の例については、ターミナルで copilot help providers を実行します。
モデルの要件
モデルでは、 ツール呼び出し (関数呼び出し とも呼ばれます) と ストリーミングをサポートする必要があります。 モデルがどちらの機能もサポートしていない場合、 Copilot CLI はエラーを返します。 最良の結果を得るには、少なくとも 128,000 個のトークンのコンテキスト ウィンドウを持つモデルを使用します。
プロバイダーの構成
モデル プロバイダーを構成するには、 Copilot CLIを開始する前に環境変数を設定します。
| 環境変数 | 必須 | 説明 |
|---|---|---|
COPILOT_PROVIDER_BASE_URL | はい | モデル プロバイダーの API エンドポイントのベース URL。 |
COPILOT_PROVIDER_TYPE | いいえ | プロバイダーの種類: openai (既定)、 azure、または anthropic。 |
COPILOT_PROVIDER_API_KEY | いいえ | プロバイダーの API キー。 ローカルの Ollama インスタンスなど、認証を使用しないプロバイダーには必要ありません。 |
COPILOT_MODEL | はい | 使用するモデル識別子。 |
`--model`コマンド ライン フラグを使用して設定することもできます。 |
OpenAI と互換性のあるエンドポイントへの接続
OpenAI、Ollama、vLLM、Foundry Local、または OpenAI Chat Completions API と互換性のある他のエンドポイントに接続する場合は、次の手順を使用します。
-
プロバイダーの環境変数を設定します。 たとえば、ローカルの Ollama インスタンスの場合:
export COPILOT_PROVIDER_BASE_URL=http://localhost:11434 export COPILOT_MODEL=YOUR-MODEL-NAME`YOUR-MODEL-NAME`を、Ollama でプルしたモデルの名前 (たとえば、`llama3.2`) に置き換えます。 -
リモートの OpenAI エンドポイントの場合は、API キーも設定します。
export COPILOT_PROVIDER_BASE_URL=https://api.openai.com/v1 export COPILOT_PROVIDER_API_KEY=YOUR-OPENAI-API-KEY export COPILOT_MODEL=YOUR-MODEL-NAME`YOUR-OPENAI-API-KEY`を OpenAI API キーに置き換え、`YOUR-MODEL-NAME`を使用したいモデル(例:`gpt-4o`)に置き換えます。 -
Copilot CLI を起動します。
copilot
Azure OpenAI への接続
-
Azure OpenAI の環境変数を設定します。
export COPILOT_PROVIDER_BASE_URL=https://YOUR-RESOURCE-NAME.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT-NAME export COPILOT_PROVIDER_TYPE=azure export COPILOT_PROVIDER_API_KEY=YOUR-AZURE-API-KEY export COPILOT_MODEL=YOUR-DEPLOYMENT-NAME次のプレースホルダーを置き換えてください。
-
`YOUR-RESOURCE-NAME`: Azure OpenAI リソース名 -
`YOUR-DEPLOYMENT-NAME`: モデル デプロイの名前 -
`YOUR-AZURE-API-KEY`: Azure OpenAI API キー
-
-
Copilot CLI を起動します。
copilot
Anthropic への接続
-
Anthropic の環境変数を設定します。
export COPILOT_PROVIDER_TYPE=anthropic export COPILOT_PROVIDER_BASE_URL=https://api.anthropic.com export COPILOT_PROVIDER_API_KEY=YOUR-ANTHROPIC-API-KEY export COPILOT_MODEL=YOUR-MODEL-NAME`YOUR-ANTHROPIC-API-KEY`をあなたのAnthropic APIキーに、そしてYOUR-MODEL-NAMEを使用したいクロードモデル(例:`claude-opus-4-5`)に置き換えてください。 -
Copilot CLI を起動します。
copilot
オフライン モードでの実行
オフライン モードで Copilot CLI を実行すると、 GitHubのサーバーに接続できなくなります。 これは、CLI がローカルまたはオンプレミスのモデル プロバイダーとのみ通信する分離環境向けに設計されています。
重要
オフライン モードでは、プロバイダーもローカルまたは同じ分離環境内にある場合にのみ、完全なネットワーク分離が保証されます。
COPILOT_PROVIDER_BASE_URLがリモート エンドポイントを指している場合、プロンプトとコード コンテキストは引き続きネットワーク経由でそのプロバイダーに送信されます。
-
「プロバイダーの構成」の説明に従って、プロバイダー環境変数を構成します。
-
オフライン モード環境変数を設定します。
export COPILOT_OFFLINE=true -
Copilot CLI を起動します。
copilot