Puede configurar CLI de Copilot para usar su propio proveedor LLM, también llamado BYOK (Bring Your Own Key), en lugar de los modelos hospedados por GitHub. Esto le permite conectarse a puntos de conexión compatibles con OpenAI, Azure OpenAI o Anthropic, incluidos modelos de ejecución local como Ollama.
Prerrequisitos
-
CLI de Copilot está instalado. Consulte [AUTOTITLE](/copilot/how-tos/copilot-cli/set-up-copilot-cli/install-copilot-cli). - Tiene una clave de API de un proveedor de LLM compatible o tiene un modelo local en ejecución (como Ollama).
Proveedores compatibles
CLI de Copilot admite tres tipos de proveedor:
| Tipo de proveedor | Servicios compatibles |
|---|---|
openai | OpenAI, Ollama, vLLM, Foundry Local y cualquier otro punto de conexión compatible con la API de finalizaciones de chat de OpenAI. Este es el tipo de proveedor predeterminado. |
azure | Azure OpenAI Service. |
anthropic | Antrópica (modelos de Claude). |
Para obtener ejemplos adicionales, ejecute copilot help providers en el terminal.
Requisitos del modelo
Los modelos deben admitir llamadas a herramientas (también llamadas a funciones) y transmisión. Si un modelo no admite ninguna funcionalidad, CLI de Copilot devuelve un error. Para obtener los mejores resultados, use un modelo con una ventana de contexto de al menos 128 000 tokens.
Configuración del proveedor
Configure el proveedor de modelos estableciendo variables de entorno antes de iniciar CLI de Copilot.
| Variable del entorno | Obligatorio | Descripción |
|---|---|---|
COPILOT_PROVIDER_BASE_URL | Sí | URL base del punto de conexión de la API del proveedor de modelos. |
COPILOT_PROVIDER_TYPE | No | Tipo de proveedor: openai (valor predeterminado), azureo anthropic. |
COPILOT_PROVIDER_API_KEY | No | La clave de API del proveedor. No es necesario para los proveedores que no usan la autenticación, como una instancia local de Ollama. |
COPILOT_MODEL | Sí | Identificador del modelo que se va a usar. También puede establecerlo con la --model marca de línea de comandos. |
Conexión a un punto de conexión compatible con OpenAI
Siga estos pasos si se conecta a OpenAI, Ollama, vLLM, Foundry Local o cualquier otro punto de conexión compatible con openAI Chat Completions API.
-
Establezca variables de entorno para el proveedor. Por ejemplo, para una instancia local de Ollama:
export COPILOT_PROVIDER_BASE_URL=http://localhost:11434 export COPILOT_MODEL=YOUR-MODEL-NAMEReemplace por
YOUR-MODEL-NAMEel nombre del modelo que ha extraído en Ollama (por ejemplo,llama3.2). -
Para un punto de conexión remoto de OpenAI, establezca también la clave de API.
export COPILOT_PROVIDER_BASE_URL=https://api.openai.com/v1 export COPILOT_PROVIDER_API_KEY=YOUR-OPENAI-API-KEY export COPILOT_MODEL=YOUR-MODEL-NAMEReemplace por
YOUR-OPENAI-API-KEYla clave de API de OpenAI yYOUR-MODEL-NAMEpor el modelo que desea usar (por ejemplo,gpt-4o). -
Inicie CLI de Copilot.
copilot
Conexión a Azure OpenAI
-
Establezca las variables de entorno para Azure OpenAI.
export COPILOT_PROVIDER_BASE_URL=https://YOUR-RESOURCE-NAME.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT-NAME export COPILOT_PROVIDER_TYPE=azure export COPILOT_PROVIDER_API_KEY=YOUR-AZURE-API-KEY export COPILOT_MODEL=YOUR-DEPLOYMENT-NAMEReemplace los siguientes marcadores de posición:
-
`YOUR-RESOURCE-NAME`: el nombre del recurso de OpenAI de Azure -
`YOUR-DEPLOYMENT-NAME`: el nombre de la implementación del modelo. -
`YOUR-AZURE-API-KEY`: la clave de API de Azure OpenAI
-
-
Inicie CLI de Copilot.
copilot
Conexión a Anthropic
-
Establezca las variables de entorno para Anthropic:
export COPILOT_PROVIDER_TYPE=anthropic export COPILOT_PROVIDER_BASE_URL=https://api.anthropic.com export COPILOT_PROVIDER_API_KEY=YOUR-ANTHROPIC-API-KEY export COPILOT_MODEL=YOUR-MODEL-NAMEReemplace por
YOUR-ANTHROPIC-API-KEYla clave de API antrópica y YOUR-MODEL-NAME por el modelo de Claude que desea usar (por ejemplo,claude-opus-4-5). -
Inicie CLI de Copilot.
copilot
Ejecución en modo sin conexión
Puede ejecutarse CLI de Copilot en modo sin conexión para evitar que se comunique con GitHublos servidores. Esto está diseñado para entornos aislados donde la CLI debe comunicarse solo con el proveedor de modelos local o en las instalaciones.
Importante
El modo sin conexión solo garantiza el aislamiento de red completo si el proveedor también es local o dentro del mismo entorno aislado. Si COPILOT_PROVIDER_BASE_URL apunta a un punto de conexión remoto, los mensajes y el contexto de código se seguirán enviando a través de la red a ese proveedor.
-
Configure las variables de entorno del proveedor como se describe en Configuración del proveedor.
-
Establezca la variable de entorno del modo sin conexión:
export COPILOT_OFFLINE=true -
Inicie CLI de Copilot.
copilot