Vous pouvez configurer CLI Copilot pour utiliser votre propre fournisseur LLM, également appelé BYOK (Bring Your Own Key), au lieu de GitHubmodèles hébergés. Cela vous permet de vous connecter à des points de terminaison compatibles OpenAI, Azure OpenAI ou Anthropic, y compris des modèles en cours d’exécution localement tels que Ollama.
Prerequisites
-
CLI Copilot est installé. Consultez « [AUTOTITLE](/copilot/how-tos/copilot-cli/set-up-copilot-cli/install-copilot-cli) ». - Vous disposez d’une clé API à partir d’un fournisseur LLM pris en charge ou vous disposez d’un modèle local en cours d’exécution (par exemple, Ollama).
Fournisseurs pris en charge
CLI Copilot prend en charge trois types de fournisseurs :
| Type de fournisseur | Services compatibles |
|---|---|
openai | OpenAI, Ollama, vLLM, Foundry Local et tout autre point de terminaison compatible avec l’API OpenAI Chat Completions. Il s’agit du type de fournisseur par défaut. |
azure | Azure OpenAI Service. |
anthropic | Anthropice (Modèles Claude). |
Pour obtenir des exemples supplémentaires, exécutez copilot help providers dans votre terminal.
Configuration requise pour le modèle
Les modèles doivent prendre en charge l’appel d’outils (également appelé appel de fonction) et la diffusion en continu. Si un modèle ne prend pas en charge l’une ou l’autre des fonctionnalités, CLI Copilot retourne une erreur. Pour obtenir de meilleurs résultats, utilisez un modèle avec une fenêtre contextuelle d’au moins 128 000 jetons.
Configuration de votre fournisseur
Vous configurez votre fournisseur de modèles en définissant des variables d’environnement avant de commencer CLI Copilot.
| Variable d'environnement | Obligatoire | Description |
|---|---|---|
COPILOT_PROVIDER_BASE_URL | Oui | URL de base du point de terminaison d’API de votre fournisseur de modèles. |
COPILOT_PROVIDER_TYPE | Non | Type de fournisseur : openai (par défaut), azureou anthropic. |
COPILOT_PROVIDER_API_KEY | Non | Votre clé API pour le fournisseur. Non requis pour les fournisseurs qui n’utilisent pas l’authentification, comme une instance Ollama locale. |
COPILOT_MODEL | Oui | Identificateur de modèle à utiliser. Vous pouvez également définir cela avec l’indicateur de --model ligne de commande. |
Connexion à un point de terminaison compatible OpenAI
Procédez comme suit si vous vous connectez à OpenAI, Ollama, vLLM, Foundry Local ou tout autre point de terminaison compatible avec l’API OpenAI Chat Completions.
-
Définissez des variables d’environnement pour votre fournisseur. Par exemple, pour une instance Ollama locale :
export COPILOT_PROVIDER_BASE_URL=http://localhost:11434 export COPILOT_MODEL=YOUR-MODEL-NAMERemplacez
YOUR-MODEL-NAMEpar le nom du modèle que vous avez extrait dans Ollama (par exemple).llama3.2 -
Pour un point de terminaison OpenAI distant, définissez également votre clé API.
export COPILOT_PROVIDER_BASE_URL=https://api.openai.com/v1 export COPILOT_PROVIDER_API_KEY=YOUR-OPENAI-API-KEY export COPILOT_MODEL=YOUR-MODEL-NAMERemplacez
YOUR-OPENAI-API-KEYpar votre clé API OpenAI etYOUR-MODEL-NAMEpar le modèle que vous souhaitez utiliser (par exemple).gpt-4o -
Démarrez CLI Copilot.
copilot
Connexion à Azure OpenAI
-
Définissez les variables d’environnement pour Azure OpenAI.
export COPILOT_PROVIDER_BASE_URL=https://YOUR-RESOURCE-NAME.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT-NAME export COPILOT_PROVIDER_TYPE=azure export COPILOT_PROVIDER_API_KEY=YOUR-AZURE-API-KEY export COPILOT_MODEL=YOUR-DEPLOYMENT-NAMERemplacez les espaces réservés suivants :
-
`YOUR-RESOURCE-NAME` : nom de votre ressource OpenAI Azure -
`YOUR-DEPLOYMENT-NAME`: nom de votre déploiement de modèle -
`YOUR-AZURE-API-KEY` : votre clé API OpenAI Azure
-
-
Démarrez CLI Copilot.
copilot
Connexion à Anthropic
-
Définissez les variables d’environnement pour Anthropic :
export COPILOT_PROVIDER_TYPE=anthropic export COPILOT_PROVIDER_BASE_URL=https://api.anthropic.com export COPILOT_PROVIDER_API_KEY=YOUR-ANTHROPIC-API-KEY export COPILOT_MODEL=YOUR-MODEL-NAMERemplacez
YOUR-ANTHROPIC-API-KEYpar votre clé API Anthropic et VOTRE-MODEL-NAME par le modèle Claude que vous souhaitez utiliser (par exemple,claude-opus-4-5). -
Démarrez CLI Copilot.
copilot
Exécution en mode hors connexion
Vous pouvez exécuter CLI Copilot en mode hors connexion pour l’empêcher de contacter GitHubles serveurs. Ceci est conçu pour les environnements isolés où l'interface en ligne de commande (CLI) doit communiquer uniquement avec votre fournisseur de modèles local ou sur site.
Important
Le mode hors connexion garantit uniquement l’isolation réseau complète si votre fournisseur est également local ou dans le même environnement isolé. Si COPILOT_PROVIDER_BASE_URL pointe vers un point de terminaison distant, vos invites et votre contexte de code sont toujours envoyés sur le réseau à ce prestataire.
-
Configurez vos variables d’environnement de fournisseur comme décrit dans Configuration de votre fournisseur.
-
Définissez la variable d’environnement en mode hors connexion :
export COPILOT_OFFLINE=true -
Démarrez CLI Copilot.
copilot