[go: up one dir, main page]

Skip to main content

Hosten von Modellen für GitHub Copilot Chat

Hier erfährst du, wie unterschiedliche KI-Modelle für Copilot Chat gehostet werden.

GitHub Copilot kann eine Vielzahl von KI-Modellen verwenden. In diesem Artikel wird erläutert, wie diese Modelle gehostet und bereitgestellt werden.

OpenAI-Modelle

Wird für Folgendes verwendet:

  • GPT-4.1
  • GPT-5-Codex (unterstützt in Visual Studio Code v1.104.1 oder höher)
  • GPT-5 mini
  • GPT-5
  • o3
  • o4-mini

GPT-4.1 wird vom Azure-Mandanten von GitHub gehostet, wenn es in GitHub Copilot verwendet wird.

Die Modelle GPT-5-Codex, GPT-5, GPT-5 mini, o3 und o4-mini werden von OpenAI und dem Azure-Mandanten GitHub gehostet. OpenAI hat folgende Datenverpflichtung: Wir [OpenAI] schulen unsere Modelle standardmäßig nicht mithilfe deiner Geschäftsdaten. GitHub unterhält eine „Zero Data Retention Agreement“ mit OpenAI, die eine Vorratsdatenspeicherung untersagt.

Wenn du die Modelle von OpenAI verwendest, laufen Eingabeanforderungen und Antworten weiterhin durch die Inhaltsfilter von GitHub Copilot für den Abgleich mit öffentlichen Codes (wenn angewendet) und durch die Filter für schädliche oder anstößige Inhalte.

Anthropische Modelle

Wird für Folgendes verwendet:

  • Claude Sonnet 4.5
  • Claude Opus 4.1
  • Claude Opus 4
  • Claude Sonnet 3.5
  • Claude Sonnet 3.7
  • Denken in Claude Sonnet 3.7
  • Claude Sonnet 4

Claude Opus 4.1 wird von Anthropic PBC gehostet. Claude Opus 4 und Claude Sonnet 4 werden von Anthropic PBC und Google Cloud Platform gehostet. Claude Sonnet 4.5 und Claude Sonnet 3.7 werden von Amazon Web Services, Anthropic PBC und Google Cloud Platform gehostet. Claude Sonnet 3.5 wird ausschließlich von Amazon Web Services gehostet. GitHub verfügt über Anbietervereinbarungen, um sicherzustellen, dass Daten nicht für Trainingszwecke genutzt werden. Weitere Details zu den einzelnen Anbietern findest du unten:

Um eine bessere Dienstqualität bereitzustellen und die Latenz zu reduzieren, verwendet GitHub Promptcaching. Weitere Informationen zum Promptcaching findest du auf Anthropic PBC, Amazon Bedrock und Google Cloud.

Wenn du Claude verwendest, laufen Eingabeprompts und Ausgabevervollständigungen weiterhin durch die Inhaltsfilter von GitHub Copilot für den Abgleich mit öffentlichen Codes (wenn angewendet) und durch die Filter für schädliche oder anstößige Inhalte.

Google-Modelle

Wird für Folgendes verwendet:

  • Gemini 2.5 Pro
  • Gemini 2.0 Flash

GitHub Copilot verwendet Gemini 2.0 Flash und Gemini 2.5 Pro, gehostet auf der Google Cloud Platform (GCP). Wenn du Gemini-Modelle verwendest, werden Prompts und Metadaten an GCP gesendet, wodurch die folgende Datenbindung erfolgt: Gemini verwendet deine Prompts oder Antworten nicht als Daten, um eigene Modelle zu trainieren.

Um eine bessere Dienstqualität bereitzustellen und die Latenz zu reduzieren, verwendet GitHub Promptcaching.

Wenn du Gemini verwendest, laufen Eingabeprompts und Ausgabevervollständigungen weiterhin durch die Inhaltsfilter von GitHub Copilot für den Abgleich mit öffentlichen Codes (wenn angewendet) und durch die Filter für schädliche oder anstößige Inhalte.

xAI-Modelle

Der kostenlose Zugriff für Grok Code Fast 1 ist bis 12:00 Uhr PDT am Mittwoch, den 10. September 2025 verfügbar. Regulär Preise gelten nach diesem Zeitpunkt.

Grok Code Fast 1 wird von xAI gehostet, wenn es in GitHub Copilot verwendet wird.

xAI betreibt Grok Code Fast 1 in GitHub Copilot unter einer API-Richtlinie ohne Datenaufbewahrung. Dies bedeutet, dass xAI diesen Benutzerinhalt committet (sowohl Eingaben, die an das Modell gesendet werden, als auch Ausgaben, die vom Modell generiert werden):

Der Inhalt wird nicht

  • für beliebige Zwecke, einschließlich menschlicher Bewertung“, protokolliert.
  • auf Datenträger gespeichert oder in beliebiger Form beibehalten, einschließlich als Metadaten.
  • für xAI-Mitarbeiter zugänglich gemacht.

Er wird ausschließlich

  • vorübergehend im RAM für die mindestens erforderliche Zeit für die Verarbeitung und Reaktion auf jede Anforderung vorhanden sein.
  • sofort aus dem Arbeitsspeicher gelöscht, sobald die Antwort übermittelt wurde.

Wenn du xAI verwendest, laufen Eingabeprompts und Ausgabevervollständigungen weiterhin durch die Inhaltsfilter von GitHub Copilot für den Abgleich mit öffentlichen Codes (wenn angewendet) und durch die Filter für schädliche oder anstößige Inhalte.