Skip to main content

Utilisation de vos propres modèles LLM dans GitHub Copilot CLI

Utilisez un modèle à partir d’un fournisseur externe de votre choix en Copilot fournissant votre propre clé API.

Vous pouvez configurer CLI Copilot pour utiliser votre propre fournisseur LLM, également appelé BYOK (Bring Your Own Key), au lieu de GitHubmodèles hébergés. Cela vous permet de vous connecter à des points de terminaison compatibles OpenAI, Azure OpenAI ou Anthropic, y compris des modèles en cours d’exécution localement tels que Ollama.

Prerequisites

  •         CLI Copilot est installé. Consultez « [AUTOTITLE](/copilot/how-tos/copilot-cli/set-up-copilot-cli/install-copilot-cli) ».
    
  • Vous disposez d’une clé API à partir d’un fournisseur LLM pris en charge ou vous disposez d’un modèle local en cours d’exécution (par exemple, Ollama).

Fournisseurs pris en charge

          CLI Copilot prend en charge trois types de fournisseurs :
Type de fournisseurServices compatibles
openaiOpenAI, Ollama, vLLM, Foundry Local et tout autre point de terminaison compatible avec l’API OpenAI Chat Completions. Il s’agit du type de fournisseur par défaut.
azureAzure OpenAI Service.
anthropicAnthropice (Modèles Claude).

Pour obtenir des exemples supplémentaires, exécutez copilot help providers dans votre terminal.

Configuration requise pour le modèle

Les modèles doivent prendre en charge l’appel d’outils (également appelé appel de fonction) et la diffusion en continu. Si un modèle ne prend pas en charge l’une ou l’autre des fonctionnalités, CLI Copilot retourne une erreur. Pour obtenir de meilleurs résultats, utilisez un modèle avec une fenêtre contextuelle d’au moins 128 000 jetons.

Configuration de votre fournisseur

Vous configurez votre fournisseur de modèles en définissant des variables d’environnement avant de commencer CLI Copilot.

Variable d'environnementObligatoireDescription
COPILOT_PROVIDER_BASE_URLOuiURL de base du point de terminaison d’API de votre fournisseur de modèles.
COPILOT_PROVIDER_TYPENonType de fournisseur : openai (par défaut), azureou anthropic.
COPILOT_PROVIDER_API_KEYNonVotre clé API pour le fournisseur. Non requis pour les fournisseurs qui n’utilisent pas l’authentification, comme une instance Ollama locale.
COPILOT_MODELOuiIdentificateur de modèle à utiliser. Vous pouvez également définir cela avec l’indicateur de --model ligne de commande.

Connexion à un point de terminaison compatible OpenAI

Procédez comme suit si vous vous connectez à OpenAI, Ollama, vLLM, Foundry Local ou tout autre point de terminaison compatible avec l’API OpenAI Chat Completions.

  1. Définissez des variables d’environnement pour votre fournisseur. Par exemple, pour une instance Ollama locale :

    export COPILOT_PROVIDER_BASE_URL=http://localhost:11434
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Remplacez YOUR-MODEL-NAME par le nom du modèle que vous avez extrait dans Ollama (par exemple). llama3.2

  2. Pour un point de terminaison OpenAI distant, définissez également votre clé API.

    export COPILOT_PROVIDER_BASE_URL=https://api.openai.com/v1
    export COPILOT_PROVIDER_API_KEY=YOUR-OPENAI-API-KEY
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Remplacez YOUR-OPENAI-API-KEY par votre clé API OpenAI et YOUR-MODEL-NAME par le modèle que vous souhaitez utiliser (par exemple). gpt-4o

  3. Démarrez CLI Copilot.

copilot

Connexion à Azure OpenAI

  1. Définissez les variables d’environnement pour Azure OpenAI.

    export COPILOT_PROVIDER_BASE_URL=https://YOUR-RESOURCE-NAME.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT-NAME
    export COPILOT_PROVIDER_TYPE=azure
    export COPILOT_PROVIDER_API_KEY=YOUR-AZURE-API-KEY
    export COPILOT_MODEL=YOUR-DEPLOYMENT-NAME
    

    Remplacez les espaces réservés suivants :

    •    `YOUR-RESOURCE-NAME` : nom de votre ressource OpenAI Azure
      
    •    `YOUR-DEPLOYMENT-NAME`: nom de votre déploiement de modèle
      
    •    `YOUR-AZURE-API-KEY` : votre clé API OpenAI Azure
      
  2. Démarrez CLI Copilot.

copilot

Connexion à Anthropic

  1. Définissez les variables d’environnement pour Anthropic :

    export COPILOT_PROVIDER_TYPE=anthropic
    export COPILOT_PROVIDER_BASE_URL=https://api.anthropic.com
    export COPILOT_PROVIDER_API_KEY=YOUR-ANTHROPIC-API-KEY
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Remplacez YOUR-ANTHROPIC-API-KEY par votre clé API Anthropic et VOTRE-MODEL-NAME par le modèle Claude que vous souhaitez utiliser (par exemple, claude-opus-4-5).

  2. Démarrez CLI Copilot.

copilot

Exécution en mode hors connexion

Vous pouvez exécuter CLI Copilot en mode hors connexion pour l’empêcher de contacter GitHubles serveurs. Ceci est conçu pour les environnements isolés où l'interface en ligne de commande (CLI) doit communiquer uniquement avec votre fournisseur de modèles local ou sur site.

Important

Le mode hors connexion garantit uniquement l’isolation réseau complète si votre fournisseur est également local ou dans le même environnement isolé. Si COPILOT_PROVIDER_BASE_URL pointe vers un point de terminaison distant, vos invites et votre contexte de code sont toujours envoyés sur le réseau à ce prestataire.

  1. Configurez vos variables d’environnement de fournisseur comme décrit dans Configuration de votre fournisseur.

  2. Définissez la variable d’environnement en mode hors connexion :

    export COPILOT_OFFLINE=true
    
  3. Démarrez CLI Copilot.

copilot