Comparação de modelos de IA para GitHub Copilot
O GitHub Copilot dá suporte a vários modelos de IA com funcionalidades diferentes. O modelo que você escolhe afeta a qualidade e a relevância das respostas do Chat Copilot e das sugestões inline do Copilot. Alguns modelos oferecem menor latência, enquanto outros oferecem menos alucinações ou melhor desempenho em tarefas específicas. Este guia ajuda você a escolher o melhor modelo com base em sua tarefa, e não apenas nos nomes dos modelos.
Observação
- Modelos diferentes têm multiplicadores de solicitação premium diferentes, o que pode afetar a quantidade de sua concessão de uso mensal consumida. Para obter detalhes, confira Solicitações no Copilot GitHub.
- Quando você usa Chat Copilot em IDEs com suporte, o Auto selecionará automaticamente o melhor modelo para você com base na disponibilidade. Você pode escolher manualmente um modelo diferente para substituir essa seleção. Confira Sobre a seleção de modelo automática do Copilot e Alterando o modelo de IA para GitHub Copilot Chat.
Modelos recomendados por tarefa
Use esta tabela para encontrar rapidamente um modelo adequado e confira mais detalhes nas seções abaixo.
| Modelo | Área da tarefa | Excelente em (caso de uso primário) | Leitura adicional |
|---|---|---|---|
| GPT-4.1 | General-purpose coding and writing | Fast, accurate code completions and explanations | GPT-4.1 model card |
| GPT-5 mini | General-purpose coding and writing | Fast, accurate code completions and explanations | GPT-5 mini model card |
| GPT-5.1 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | GPT-5.1 model card |
| GPT-5.1-Codex | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | Not available |
| GPT-5.1 Codex Max | Agentic software development | Agentic tasks | GPT-5.1-Codex-Max model card |
| GPT-5.1-Codex-Mini | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | Not available |
| GPT-5.2 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | GPT-5.2 model card |
| GPT-5.2-Codex | Agentic software development | Agentic tasks | GPT-5.2-Codex model card |
| GPT-5.3-Codex | Agentic software development | Agentic tasks | GPT-5.3-Codex model card |
| GPT-5.4 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | Not available |
| Claude Haiku 4.5 | Fast help with simple or repetitive tasks | Fast, reliable answers to lightweight coding questions | Claude Haiku 4.5 model card |
| Claude Opus 4.5 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Claude Opus 4.5 model card |
| Claude Opus 4.6 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Claude Opus 4.6 model card |
| Claude Opus 4.6 (fast mode) (preview) | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Not available |
| Claude Sonnet 4.0 | Deep reasoning and debugging | Performance and practicality, perfectly balanced for coding workflows | Claude Sonnet 4.0 model card |
| Claude Sonnet 4.5 | General-purpose coding and agent tasks | Complex problem-solving challenges, sophisticated reasoning | Claude Sonnet 4.5 model card |
| Claude Sonnet 4.6 | General-purpose coding and agent tasks | Complex problem-solving challenges, sophisticated reasoning | Claude Sonnet 4.6 model card |
| Gemini 2.5 Pro | Deep reasoning and debugging | Complex code generation, debugging, and research workflows | Gemini 2.5 Pro model card |
| Gemini 3 Flash | Fast help with simple or repetitive tasks | Fast, reliable answers to lightweight coding questions | Gemini 3 Flash model card |
| Gemini 3 Pro | Deep reasoning and debugging | Complex code generation, debugging, and research workflows | Gemini 3 Pro model card |
| Gemini 3.1 Pro | Deep reasoning and debugging | Effective and efficient edit-then-test loops with high tool precision | not applicable |
| Grok Code Fast 1 | General-purpose coding and writing | Fast, accurate code completions and explanations | Grok Code Fast 1 model card |
| Qwen2.5 | General-purpose coding and writing | Code generation, reasoning, and code repair / debugging | Qwen2.5 model card |
| Raptor mini | General-purpose coding and writing | Fast, accurate code completions and explanations | Coming soon |
Tarefa: codificação e escrita de uso geral
Use esses modelos para tarefas comuns de desenvolvimento que demandam um equilíbrio entre qualidade, velocidade e custo. Esses modelos são um bom padrão quando você não tem requisitos específicos.
| Modelo | Por que é uma boa escolha |
|---|---|
| GPT-5.3-Codex | Fornece código de alta qualidade em tarefas de engenharia complexas, como recursos, testes, depuração, refatorações e avaliações sem instruções detalhadas. |
| Mini GPT-5 | Padrão confiável para a maioria das tarefas de codificação e escrita. Rápido, preciso e funciona bem com diferentes linguagens e estruturas. |
| Grok Code Fast 1 | Especializado para tarefas de codificação. Tem um bom desempenho na geração de código e na depuração em várias linguagens. |
| Raptor mini | Especializado em sugestões e explicações integradas rápidas e precisas. |
Quando usar esses modelos
Use um destes modelos quando quiser:
- Escrever ou revisar funções, arquivos curtos ou diferenças de código.
- Gerar documentação, comentários ou resumos.
- Explicar erros ou comportamentos inesperados rapidamente.
- Trabalhar em um ambiente de programação que não esteja em inglês.
Quando usar outro modelo
Se estiver trabalhando com refatoração complexa, decisões arquitetônicas ou lógica de várias etapas, considere um modelo de Raciocínio aprofundado e depuração. Para tarefas mais rápidas e simples, como edições repetitivas ou sugestões de código pontuais, confira Ajuda rápida com tarefas simples ou repetitivas.
Tarefa: ajuda rápida com tarefas simples ou repetitivas
Estes modelos são otimizados em prol da velocidade e da capacidade de resposta. Eles são ideais para edições rápidas, funções de utilitário, ajuda com sintaxe e protótipos leves. Você receberá respostas rápidas sem precisar esperar por profundidade desnecessária ou cadeias de raciocínio longas.
Modelos recomendados
| Modelo | Por que é uma boa escolha |
|---|---|
| Claude Haiku 4.5 | Equilibra respostas rápidas e saídas de qualidade. Ideal para tarefas pequenas e explicações de código leves. |
Quando usar esses modelos
Use um destes modelos quando quiser:
- Escrever ou editar funções pequenas ou código de utilitário.
- Fazer perguntas rápidas sobre sintaxe ou linguagem.
- Prototipar ideias com configuração mínima.
- Receber feedback rápido sobre prompts ou edições simples.
Quando usar outro modelo
Se estiver trabalhando com refatoração complexa, decisões arquitetônicas ou lógica de várias etapas, confira Raciocínio aprofundado e depuração. Para tarefas que precisam de um raciocínio de uso geral mais sólido ou de uma saída mais estruturada, confira Codificação e escrita de uso geral.
Tarefa: depuração e raciocínio profundo
Estes modelos são projetados para tarefas que exigem raciocínio passo a passo, tomada de decisão complexa ou reconhecimento de contexto elevado. Eles funcionam bem quando você precisa de análise estruturada, geração de código elaborada ou reconhecimento de vários arquivos.
Modelos recomendados
| Modelo | Por que é uma boa escolha |
|---|---|
| Mini GPT-5 | Fornece raciocínio profundo e depuração com respostas mais rápidas e menor uso de recursos do que o GPT-5. Ideal para sessões interativas e análise de código passo a passo. |
| GPT-5.4 | Ótimo em raciocínio complexo, análise de código e tomada de decisão técnica. |
| Claude Soneto 4.6 | Melhora no Sonnet 4.5 com conclusões mais confiáveis e raciocínio mais inteligente sob pressão. |
| Claude Opus 4.6 | Modelo mais poderoso da Anthropic. Aprimora o Claude Opus 4.5. |
| Gemini 3 Pro | Raciocínio avançado em longos contextos e análise científica ou técnica. |
| Goldeneye | Desafios complexos de resolução de problemas e raciocínio sofisticado. |
Quando usar esses modelos
Use um destes modelos quando quiser:
- Depurar questões complexas utilizando contexto em múltiplos arquivos.
- Refatorar bases de código grandes ou interconectadas.
- Planejar funcionalidades ou arquitetura através de camadas.
- Avaliar compensações entre bibliotecas, padrões ou fluxos de trabalho.
- Analisar logs, dados de desempenho ou comportamento do sistema.
Quando usar outro modelo
Caso precise de iteração rápida ou tarefas leves, confira Ajuda rápida com tarefas simples ou repetitivas. Para fluxos de trabalho de desenvolvimento ou geração de conteúdo em geral, confira Codificação e escrita de uso geral.
Tarefa: trabalho com visuais (diagramas, capturas de tela)
Use estes modelos quando quiser fazer perguntas sobre capturas de tela, diagramas, componentes da interface do usuário ou outra entrada visual. Eles suportam entrada multimodal e são adequados para tarefas de front-end ou depuração visual.
| Modelo | Por que é uma boa escolha |
|---|---|
| Mini GPT-5 | Padrão confiável para a maioria das tarefas de codificação e escrita. Rápido, preciso e dá suporte à entrada multimodal para tarefas de raciocínio visual. Funciona bem com diferentes linguagens e estruturas. |
| Claude Soneto 4.6 | Melhora no Sonnet 4.5 com conclusões mais confiáveis e raciocínio mais inteligente sob pressão. |
| Gemini 3 Pro | Raciocínio profundo e depuração, ideal para fluxos de trabalho complexos de geração de código, depuração e pesquisa. |
Quando usar esses modelos
Use um destes modelos quando quiser:
- Fazer perguntas sobre diagramas, capturas de tela ou componentes da interface do usuário.
- Receber comentários sobre fluxos de trabalho ou rascunhos visuais.
- Entender o comportamento de front-end com base no contexto visual.
Dica
Se você estiver usando um modelo em um contexto que não dá suporte à entrada de imagens (como um editor de código), não verá benefícios no raciocínio visual. Você pode usar um servidor MCP para obter acesso à entrada visual indiretamente. Confira Estendendo o GitHub Copilot Chat com servidores do protocolo Model Context (MCP).
Quando usar outro modelo
Se sua tarefa envolver raciocínio profundo ou refatoração em larga escala, considere um modelo da categoria Raciocínio profundo e depuração. Para tarefas somente de texto ou edições de código mais simples, confira Ajuda rápida com tarefas simples ou repetitivas.
Próximas etapas
Escolher o modelo certo ajuda você a aproveitar ao máximo o Copilot. Se não tiver certeza de qual modelo usar, comece com uma opção de uso geral, como GPT-4.1, e ajuste com base em suas necessidades.
- Para obter especificações e preços detalhados do modelo, confira Modelos de IA com suporte no Copilot GitHub.
- Para obter mais exemplos de como usar modelos diferentes, confira Comparação de modelos de IA usando tarefas diferentes.
- Para alternar entre modelos, confira Alterando o modelo de IA para GitHub Copilot Chat ou Alterando o modelo de IA para sugestões embutidas do Copilot do GitHub.
- Para saber como o Chat Copilot atende diferentes modelos de IA, confira Hospedagem de modelos para chat GitHub Copilot.