[go: up one dir, main page]

Skip to main content

托管 GitHub Copilot 对话助手的模型

了解如何为 Copilot 对话助手 托管不同的 AI 模型。

GitHub Copilot 可以使用多种 AI 模型。 本文介绍如何托管和提供这些模型。

OpenAI 模型

用于:

  • GPT-4.1
  • GPT-5-Codex(在 Visual Studio Code v1.104.1 或更高版本中受支持)
  • GPT-5 mini
  • GPT-5
  • o3
  • o4-mini

在 GitHub Copilot 中使用 GPT-4.1 时,由 GitHub 的 Azure 租户托管。

GPT-5-Codex、GPT-5、GPT-5 mini、o3 和 o4-mini 模型由 OpenAI 和 GitHub 的 Azure 租户托管。 OpenAI 作出以下数据承诺:我们 [OpenAI] 默认不会使用你的业务数据来训练我们的模型__。 GitHub 与 OpenAI 签订了零数据保留协议

使用 OpenAI 的模型时,输入请求和输出响应在应用时将继续通过 GitHub Copilot 的内容筛选器进行公共代码匹配以及有害或冒犯性内容检查。

Anthropic 模型

用于:

  • Claude Sonnet 4.5
  • Claude Opus 4.1
  • Claude Opus 4
  • Claude Sonnet 3.5
  • Claude Sonnet 3.7
  • Claude Sonnet 3.7 Thinking
  • Claude Sonnet 4

Claude Opus 4.1 由 Anthropic PBC 托管。 Claude Opus 4 和 Claude Sonnet 4 由 Anthropic PBC 和 Google Cloud Platform 托管。 Claude Sonnet 4.5 和 Claude Sonnet 3.7 由 Amazon Web Services、Anthropic PBC 和 Google Cloud Platform 托管。 Claude Sonnet 3.5 由 Amazon Web Services 专门托管。 GitHub 已与提供商签署协议,确保数据不会被用于训练。 下面列出了每个提供商的其他详细信息:

为了提升服务质量并降低延迟,GitHub 使用了 提示缓存技术。 可以阅读有关 Anthropic PBCAmazon BedrockGoogle Cloud 上的提示缓存的详细信息。

使用 Claude 时,输入提示和输出补全将继续通过 GitHub Copilot 的内容筛选器运行,这些筛选器会进行公共代码匹配(如果应用),同时筛选有害或冒犯性内容。

Google 模型

用于:

  • Gemini 2.5 Pro
  • Gemini 2.0 Flash

GitHub Copilot 使用 Google Cloud Platform (GCP) 上托管的 Gemini 2.0 Flash 和 Gemini 2.5 Pro。 使用 Gemini 时,提示和元数据将发送到 GCP,我们做出以下数据承诺:Gemini 不会使用提示或其响应作为数据来训练其模型__。

为了提升服务质量并降低延迟,GitHub 使用了 提示缓存技术。

使用 Gemini 模型时,输入提示和输出补全将继续通过 GitHub Copilot 的内容筛选器运行,这些筛选器会进行公共代码匹配(如果应用),同时筛选有害或冒犯性内容。

xAI 模型

Grok Code Fast 1 的免费访问权限可以用到中午 12 点。 PDT 2025 年 9 月 10 日星期三。 在此时间点之后,将应用常规定价

在 GitHub Copilot 中使用时,Grok Code Fast 1 由 xAI 托管。

xAI 在 GitHub Copilot 中根据零数据保留 API 策略运行 Grok Code Fast 1。 这意味着 xAI 会提交该用户内容(发送到模型的输入以及模型生成的输出):

不会出现以下情况****:

  • 出于任何目的(包括人工评审)记录
  • 保存到磁盘或以任何形式保留,包括以元数据形式保留
  • xAI 人员可访问

只会出现以下情况****:

  • 临时存在于 RAM 中,时长为处理并响应每个请求所需的最短时间
  • 传送响应后立即从内存中删除

使用 xAI 时,输入提示和输出补全继续通过 GitHub Copilot 的内容筛选器运行,这些筛选器会进行公共代码匹配(如果适应),同时筛选有害或冒犯性内容。