Skip to main content

Uso de sus propios modelos LLM en la herramienta GitHub Copilot CLI

Usando un modelo de un proveedor externo de su elección en Copilot, suministre su propia clave API.

Puede configurar CLI de Copilot para usar su propio proveedor LLM, también llamado BYOK (Bring Your Own Key), en lugar de los modelos hospedados por GitHub. Esto le permite conectarse a puntos de conexión compatibles con OpenAI, Azure OpenAI o Anthropic, incluidos modelos de ejecución local como Ollama.

Prerrequisitos

  •         CLI de Copilot está instalado. Consulte [AUTOTITLE](/copilot/how-tos/copilot-cli/set-up-copilot-cli/install-copilot-cli).
    
  • Tiene una clave de API de un proveedor de LLM compatible o tiene un modelo local en ejecución (como Ollama).

Proveedores compatibles

          CLI de Copilot admite tres tipos de proveedor:
Tipo de proveedorServicios compatibles
openaiOpenAI, Ollama, vLLM, Foundry Local y cualquier otro punto de conexión compatible con la API de finalizaciones de chat de OpenAI. Este es el tipo de proveedor predeterminado.
azureAzure OpenAI Service.
anthropicAntrópica (modelos de Claude).

Para obtener ejemplos adicionales, ejecute copilot help providers en el terminal.

Requisitos del modelo

Los modelos deben admitir llamadas a herramientas (también llamadas a funciones) y transmisión. Si un modelo no admite ninguna funcionalidad, CLI de Copilot devuelve un error. Para obtener los mejores resultados, use un modelo con una ventana de contexto de al menos 128 000 tokens.

Configuración del proveedor

Configure el proveedor de modelos estableciendo variables de entorno antes de iniciar CLI de Copilot.

Variable del entornoObligatorioDescripción
COPILOT_PROVIDER_BASE_URLURL base del punto de conexión de la API del proveedor de modelos.
COPILOT_PROVIDER_TYPENoTipo de proveedor: openai (valor predeterminado), azureo anthropic.
COPILOT_PROVIDER_API_KEYNoLa clave de API del proveedor. No es necesario para los proveedores que no usan la autenticación, como una instancia local de Ollama.
COPILOT_MODELIdentificador del modelo que se va a usar. También puede establecerlo con la --model marca de línea de comandos.

Conexión a un punto de conexión compatible con OpenAI

Siga estos pasos si se conecta a OpenAI, Ollama, vLLM, Foundry Local o cualquier otro punto de conexión compatible con openAI Chat Completions API.

  1. Establezca variables de entorno para el proveedor. Por ejemplo, para una instancia local de Ollama:

    export COPILOT_PROVIDER_BASE_URL=http://localhost:11434
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Reemplace por YOUR-MODEL-NAME el nombre del modelo que ha extraído en Ollama (por ejemplo, llama3.2).

  2. Para un punto de conexión remoto de OpenAI, establezca también la clave de API.

    export COPILOT_PROVIDER_BASE_URL=https://api.openai.com/v1
    export COPILOT_PROVIDER_API_KEY=YOUR-OPENAI-API-KEY
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Reemplace por YOUR-OPENAI-API-KEY la clave de API de OpenAI y YOUR-MODEL-NAME por el modelo que desea usar (por ejemplo, gpt-4o).

  3. Inicie CLI de Copilot.

copilot

Conexión a Azure OpenAI

  1. Establezca las variables de entorno para Azure OpenAI.

    export COPILOT_PROVIDER_BASE_URL=https://YOUR-RESOURCE-NAME.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT-NAME
    export COPILOT_PROVIDER_TYPE=azure
    export COPILOT_PROVIDER_API_KEY=YOUR-AZURE-API-KEY
    export COPILOT_MODEL=YOUR-DEPLOYMENT-NAME
    

    Reemplace los siguientes marcadores de posición:

    •    `YOUR-RESOURCE-NAME`: el nombre del recurso de OpenAI de Azure
      
    •    `YOUR-DEPLOYMENT-NAME`: el nombre de la implementación del modelo.
      
    •    `YOUR-AZURE-API-KEY`: la clave de API de Azure OpenAI
      
  2. Inicie CLI de Copilot.

copilot

Conexión a Anthropic

  1. Establezca las variables de entorno para Anthropic:

    export COPILOT_PROVIDER_TYPE=anthropic
    export COPILOT_PROVIDER_BASE_URL=https://api.anthropic.com
    export COPILOT_PROVIDER_API_KEY=YOUR-ANTHROPIC-API-KEY
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Reemplace por YOUR-ANTHROPIC-API-KEY la clave de API antrópica y YOUR-MODEL-NAME por el modelo de Claude que desea usar (por ejemplo, claude-opus-4-5).

  2. Inicie CLI de Copilot.

copilot

Ejecución en modo sin conexión

Puede ejecutarse CLI de Copilot en modo sin conexión para evitar que se comunique con GitHublos servidores. Esto está diseñado para entornos aislados donde la CLI debe comunicarse solo con el proveedor de modelos local o en las instalaciones.

Importante

El modo sin conexión solo garantiza el aislamiento de red completo si el proveedor también es local o dentro del mismo entorno aislado. Si COPILOT_PROVIDER_BASE_URL apunta a un punto de conexión remoto, los mensajes y el contexto de código se seguirán enviando a través de la red a ese proveedor.

  1. Configure las variables de entorno del proveedor como se describe en Configuración del proveedor.

  2. Establezca la variable de entorno del modo sin conexión:

    export COPILOT_OFFLINE=true
    
  3. Inicie CLI de Copilot.

copilot