Kostenlose Beratung

Microsoft Copilot DSGVO-konform: Leitfaden für Unternehmen 2026

Das Wichtigste in Kürze

  • Lässt sich Copilot rechtssicher nutzen? Ja, mit Microsoft 365 Copilot Enterprise oder Business und einer aktiv konfigurierten Umgebung ist ein DSGVO-konformer Betrieb möglich.
  • Wo werden die Daten verarbeitet? Customer Data und personenbezogene Daten bleiben grundsätzlich in der EU Data Boundary. Bei Lastspitzen oder bei Anthropic-Modellen können Anfragen außerhalb der EU verarbeitet werden.
  • KI-Training mit Unternehmensdaten? Microsoft schließt das Training von Foundation Models mit Kundendaten in der Enterprise-Variante vertraglich aus.
  • Größtes Risiko in der Praxis: Copilot zeigt nur Inhalte, auf die der jeweilige Nutzer Zugriff hat. Vorhandene Fehlfreigaben werden dadurch plötzlich sichtbar.
  • Regulatorischer Rahmen: Neben der DSGVO sind auch der EU AI Act, NIS2 und DORA relevant. Eine Datenschutz-Folgenabschätzung ist in der Regel Pflicht.
  • CodeKlar als Partner: CodeKlar begleitet Unternehmen ganzheitlich von der Lizenzwahl über die Tenant-Konfiguration bis zur DSGVO-konformen KI-Nutzung im Alltag.

Microsoft Copilot DSGVO-konform nutzen: Das Wichtigste im Überblick

Viele Unternehmen in Deutschland stehen aktuell vor der gleichen Frage: Lässt sich Microsoft Copilot DSGVO-konform im Tagesgeschäft einsetzen, ohne dass sensible Daten in falsche Hände geraten oder in das Training großer Sprachmodelle einfließen? Die kurze Antwort lautet ja, allerdings nur unter klaren Voraussetzungen. Microsoft hat mit der EU Data Boundary und der Enterprise Data Protection ein belastbares Schutzniveau geschaffen. Entscheidend ist, ob Verantwortliche die richtige Lizenz, eine saubere Konfiguration und passende Governance-Strukturen mitbringen.

Was ist Microsoft Copilot? Versionen und Lizenzen im Vergleich

Microsoft Copilot ist ein KI-Assistent, der direkt in Microsoft 365 integriert ist. Er greift auf Inhalte aus Word, Excel, PowerPoint, Outlook, Teams, OneDrive und SharePoint zu, fasst Informationen zusammen, formuliert Texte und unterstützt bei wiederkehrenden Aufgaben. Technisch nutzt Copilot große Sprachmodelle, die in Microsofts Cloud betrieben werden. Datenschutzrechtlich ist allerdings entscheidend, in welcher Variante Copilot eingesetzt wird, denn die Lizenzform bestimmt, welche Schutzversprechen vertraglich gelten.

Wichtig: Wer Copilot mit einem privaten Microsoft-Konto oder in der kostenfreien Variante nutzt, fällt nicht unter Enterprise Data Protection. Inhalte können dann in das Training der KI einfließen. Für Unternehmen ist daher ausschließlich Microsoft 365 Copilot Enterprise oder Copilot Business eine sinnvolle Option.

Wo werden Copilot-Daten verarbeitet? Die EU Data Boundary erklärt

Die EU Data Boundary ist ein geografisch definierter Verarbeitungsraum innerhalb der Europäischen Union. Microsoft hat sich verpflichtet, Customer Data und personenbezogene Daten für Microsoft 365, Azure, Dynamics 365 und die Power Platform innerhalb dieser Grenze zu speichern und zu verarbeiten. Stand der offiziellen Dokumentation auf Microsoft Learn ist Februar 2025. Für Microsoft 365 Copilot bedeutet das im Regelfall: Anfragen aus Deutschland werden in europäischen Rechenzentren verarbeitet. Verschlüsselung erfolgt sowohl bei der Übertragung als auch bei der Speicherung.

Ausnahmen, die Verantwortliche einordnen sollten

Die EU Data Boundary gilt für Kundeninhalte wie E Mails, Dateien, Chats und Dokumente. Für bestimmte technische und betriebliche Zwecke gibt es klar definierte Ausnahmen, die primär den sicheren und stabilen Betrieb der Plattform sicherstellen.

Dazu gehören pseudonymisierte System und Sicherheitslogs, die zur Fehleranalyse, Bedrohungserkennung und Service Stabilität verarbeitet werden können. Diese enthalten keine direkt zuordenbaren Nutzerdaten und unterliegen weiterhin den vertraglichen Datenschutz Zusagen von Microsoft.

Seit März 2026 setzt Microsoft zusätzlich auf sogenanntes Flex Routing. Dabei können KI Anfragen in Ausnahmefällen bei hoher Auslastung kurzfristig auch außerhalb der EU beantwortet werden, etwa um Antwortzeiten und Verfügbarkeit sicherzustellen. Die Verarbeitung erfolgt weiterhin verschlüsselt und unter Microsofts Enterprise Data Protection Regelungen. Inhalte werden nicht dauerhaft gespeichert oder für Training verwendet.

Ergänzend nutzt Microsoft für einzelne Copilot Funktionen seit Januar 2026 auch Modelle von Anthropic als Unterauftragsverarbeiter. Diese Modelle arbeiten ebenfalls auf Basis strenger vertraglicher Datenschutz Vorgaben. Entscheidend ist: Zugriffsrechte, Mandantentrennung und Datenkontrolle bleiben vollständig erhalten, unabhängig davon, welches Modell technisch eingesetzt wird.

Für Unternehmen bedeutet das: Die EU Data Boundary bietet ein hohes Maß an Transparenz und Kontrolle. Die genannten Ausnahmen dienen dem sicheren Betrieb und verändern nichts an der grundsätzlichen DSGVO Konformität von Microsoft 365 und Copilot.

Praxis-Tipp: Die Flex-Routing-Einstellung lässt sich im Microsoft 365 Admin Center unter den Copilot-Einstellungen deaktivieren. Für Unternehmen mit strengen Vorgaben wie ISO 27001, NIS2 oder DORA ist eine bewusste Entscheidung mitsamt Dokumentation Pflicht.

Warum Unternehmensdaten nicht für KI-Training genutzt werden

Eine zentrale Sorge bei Cloud-KI lautet: Werden meine Inhalte zum Trainieren der Modelle verwendet? Microsoft beantwortet diese Frage für die Enterprise-Variante eindeutig mit Nein. Im offiziellen Leitfaden DSGVO und Generative KI hält Microsoft fest, dass Microsoft 365 Copilot und der Azure OpenAI Service Kundendaten ohne ausdrückliche Erlaubnis nicht zum Training von Foundation-Modellen verwenden.

Technisch sorgt die Enterprise Data Protection dafür, dass Prompts, Antworten und Daten, die über den Microsoft Graph abgerufen werden, im jeweiligen Tenant verbleiben. Microsoft agiert dabei als Auftragsverarbeiter im Sinne von Art. 28 DSGVO. Sensible Inhalte verlassen die Vertrauensgrenze des Unternehmens nicht. Die Antworten der KI werden ausschließlich für die konkrete Anfrage erzeugt und nicht in das Modell zurückgespeist.

Faustregel für die Entscheidung: Nur kostenpflichtige Microsoft 365 Copilot Enterprise- oder Business-Lizenzen liefern den vollständigen vertraglichen Schutz vor KI-Training mit Unternehmensdaten. Kostenlose Konsumentenversionen sind für den Unternehmenseinsatz nicht geeignet.

DSGVO-Anforderungen und Microsoft Copilot im Vergleich

Die folgende Übersicht zeigt, welche Pflichten der DSGVO Microsoft direkt abdeckt und welche Aufgaben weiterhin beim verantwortlichen Unternehmen liegen. Diese geteilte Verantwortung ist typisch für Cloud-Dienste und entscheidend für eine belastbare Compliance-Argumentation.

DSGVO-AnforderungWas Microsoft Copilot bietetWas Unternehmen ergänzen müssen
Auftragsverarbeitung (Art. 28)DPA und Standardvertragsklauseln liegen im Microsoft Product Terms vor.AVV im eigenen Verzeichnis dokumentieren, Verantwortlichkeiten klar verteilen.
Datenresidenz / EU Data BoundaryCustomer Data wird in der EU gespeichert und in der Regel verarbeitet.Flex Routing prüfen, Tenant-Standort dokumentieren, Ausnahmen bewerten.
Zweckbindung & kein KI-TrainingEnterprise Data Protection schließt Training mit Kundendaten aus.In der Datenschutzerklärung und KI-Richtlinie sauber abbilden.
Technische und organisatorische MaßnahmenVerschlüsselung, Identitätsschutz, Audit-Logs in Microsoft 365.Conditional Access, MFA, Berechtigungen, Sensitivity Labels aktiv konfigurieren.
Betroffenenrechte (Art. 15 bis 22)Auskunft, Löschung und Export sind über bestehende M365-Werkzeuge erreichbar.Prozesse für Anfragen festlegen, Verantwortliche benennen, Fristen einhalten.
Datenschutz-FolgenabschätzungMicrosoft stellt Vorlagen, Compliance-Berichte und Audit-Nachweise bereit.Eigene DSFA durchführen, Risiken bewerten, Maßnahmen dokumentieren.

Welche Risiken bei Microsoft Copilot in der Praxis kritisch sind

Oversharing als größter Hebel

Microsoft selbst nennt übermäßige Berechtigungen in SharePoint, OneDrive und Teams als häufigstes Risiko bei Copilot-Rollouts. Die KI hält sich strikt an die bestehenden Zugriffsrechte. Wenn ein Mitarbeitender Zugriff auf einen vergessenen Ordner mit Gehaltslisten oder Kundenkalkulationen hat, dann kann auch Copilot diese Inhalte aufgreifen. Vor dem Rollout sollten daher Berechtigungen, Sharing-Links und Site-Strukturen systematisch aufgeräumt werden.

Sicherheitslücken und Prompt Injection

Sicherheitsforschende haben in den letzten Monaten mehrere Schwachstellen in Copilot dokumentiert, darunter sogenannte Zero-Click-Angriffe und Prompt-Injection-Vektoren. Microsoft reagiert mit Patches, doch Verantwortliche sollten ihre Microsoft-Cloud-Umgebung aktiv überwachen. Das BSI stellt mit den Empfehlungen zu Microsoft Office 2024 vom September 2025 einen guten Ausgangspunkt für eine sichere Konfiguration bereit.

Schatten-KI und unklare Verantwortlichkeiten

Wenn Mitarbeitende KI-Tools über private Konten verwenden, fehlt jede Kontrolle. Eine klare KI-Nutzungsrichtlinie, Schulungen und technische Sperren für nicht freigegebene Dienste sind daher Pflicht. Erst dann lässt sich glaubhaft argumentieren, dass das Unternehmen seine Rechenschaftspflicht nach Art. 5 Abs. 2 DSGVO erfüllt.

Copilot sicher nutzen ohne Risiko für sensible Daten

Ein DSGVO-konformer Copilot-Einsatz steht und fällt mit dem Zusammenspiel mehrerer Schutzschichten. Die folgende Grafik zeigt fünf Ebenen, die jedes Unternehmen vor dem produktiven Rollout adressieren sollte. Sie reichen von der Lizenzwahl als Fundament bis zur Schulung der Mitarbeitenden an der Spitze.

Die Grafik zeigt fünf Schichten für den DSGVO-konformen Einsatz von Microsoft 365 Copilot, Teil der Grafik-3-Schichten-Sicherheit.

Abbildung 1: Fünf Schichten für den DSGVO-konformen Einsatz von Microsoft Copilot.

Copilot-Rollout-Checkliste: Konkrete Maßnahmen mit Zeitplan

Die folgende Maßnahmen-Tabelle übersetzt die Schichten in konkrete Aufgaben. Sie eignet sich als Grundlage für ein Pre-Rollout-Audit oder als Checkliste für die Datenschutz-Folgenabschätzung.

MaßnahmeEmpfohlener ZeitpunktBegründung
Tenant- und Lizenz-Check (Enterprise statt Free)Vor dem RolloutNur bezahlte Versionen bieten Enterprise Data Protection und keinen Trainingseinsatz.
Flex Routing im M365 Admin Center prüfenSofortSeit März 2026 für neue EU-Tenants standardmäßig aktiv und damit ggf. unerwünscht.
Berechtigungen und Oversharing aufräumenVor dem RolloutCopilot zeigt nur Inhalte, auf die der Nutzer Zugriff hat. Vorhandene Fehlfreigaben werden sichtbar.
Sensitivity Labels und DLP in Purview ausrollenVor dem RolloutSchützt vertrauliche Daten vor unkontrollierter Verarbeitung durch Copilot.
Datenschutz-Folgenabschätzung erstellenVor dem RolloutPflicht nach Art. 35 DSGVO bei umfassendem Einsatz neuer Technologien.
KI-Nutzungsrichtlinie und SchulungMit dem RolloutSchließt Shadow AI aus und gibt Mitarbeitenden klare Leitplanken für Prompts.
Audit-Logs und Compliance-Reports überwachenLaufendBelegt Rechenschaftspflicht nach Art. 5 Abs. 2 DSGVO und unterstützt NIS2-Pflichten.

Unser Ansatz bei CodeKlar

CodeKlar begleitet Unternehmen auf dem Weg zu einem rechtssicheren KI-Einsatz. Der Ablauf folgt einem bewährten Vorgehen, das Datenschutz, IT-Sicherheit und Produktivität in Balance hält.

  1. Status-Quo-Analyse CodeKlar prüft Lizenzen, Tenant-Konfiguration, Berechtigungsstruktur in SharePoint und OneDrive sowie bestehende DLP- und Label-Strategien. Ziel ist eine ehrliche Risikolandkarte vor dem Copilot-Rollout.
  2. Datenschutz-Folgenabschätzung und AVV Gemeinsam mit dem Datenschutzbeauftragten erstellt CodeKlar eine DSFA für den Copilot-Einsatz und prüft die Auftragsverarbeitungsverträge inklusive Standardvertragsklauseln auf Vollständigkeit.
  3. Technische Härtung im Tenant CodeKlar konfiguriert Conditional Access, MFA, Sensitivity Labels in Purview, DLP-Policies und prüft die Flex-Routing-Einstellung im Admin Center.
  4. Rollout in Wellen Statt eines Big-Bang-Starts begleitet CodeKlar Pilot-Gruppen, dokumentiert Erkenntnisse und passt Richtlinien iterativ an. So bleibt das Risiko überschaubar.
  5. Schulung und KI-Richtlinie Mitarbeitende erhalten praxisnahe Schulungen zu sicheren Prompts, zur richtigen Behandlung sensibler Daten und zu den Grenzen von Copilot. Eine schriftliche KI-Nutzungsrichtlinie schafft verbindliche Leitplanken.
  6. Laufende Begleitung Nach dem Go-Live sorgt CodeKlar für regelmäßige Reviews, Audit-Log-Auswertungen und Anpassungen, sobald Microsoft neue Funktionen wie Flex Routing oder zusätzliche Subprozessoren einführt.

Fazit

Microsoft Copilot lässt sich in deutschen Unternehmen DSGVO-konform betreiben, wenn die Rahmenbedingungen stimmen. Mit der EU Data Boundary, der Enterprise Data Protection und den vertraglichen Zusagen zum Verzicht auf KI-Training stellt Microsoft das technische und juristische Fundament bereit. Verantwortlich bleiben jedoch die Unternehmen selbst. Sie müssen die richtige Lizenz wählen, ihre Berechtigungen aufräumen, neuere Default-Einstellungen wie Flex Routing bewusst entscheiden und ihre Mitarbeitenden schulen. Wer diese Hausaufgaben erledigt, gewinnt ein leistungsfähiges Werkzeug, ohne den Schutz personenbezogener Daten zu gefährden.

Jetzt Microsoft Copilot DSGVO-konform einführen

Steht bei Ihnen die Einführung von Microsoft Copilot an oder möchten Sie eine bestehende Umgebung auf Datenschutzkonformität prüfen lassen? Sie sind nicht allein. CodeKlar begleitet Sie in Deutschland von der ersten Risikoanalyse bis zur sicheren produktiven Nutzung.

Unser Angebot: CodeKlar führt einen strukturierten Copilot-Readiness-Check durch, erstellt mit Ihnen die Datenschutz-Folgenabschätzung, härtet Ihre Microsoft-365-Umgebung und schult Ihre Mitarbeitenden. Sie erhalten einen dedizierten Ansprechpartner, klare Meilensteine und transparente Festpreise.

Jetzt unverbindliches Erstgespräch zur DSGVO-konformen Copilot-Einführung vereinbaren.

Beratung anfragen!
Hände schütteln symbolisieren die Zusammenarbeit zur DSGVO-konformen Nutzung von Microsoft 365 und Microsoft Copilot.

Teilen Sie Ihr Wissen mit Ihren Kollegen