Ich hatte eigentlich vor, heute über eine spannende Neuerung in Microsoft 365 Copilot zu berichten. Eigentlich. Denn nach meinen Tests muss ich leider sagen: Es funktioniert noch nicht so, wie es sollte.
Microsoft hat angekündigt, dass Purview Data Loss Prevention (DLP) jetzt auch für Copilot Agents gilt. Die Idee dahinter ist bestechend einfach: Bestimmte Dokumente, die als sensibel eingestuft wurden – zum Beispiel mit einem Label wie „Secret – no Copilot“ – sollen von den Agents nicht als Grundlage für Antworten oder Zusammenfassungen verwendet werden. Damit soll verhindert werden, dass vertrauliche Inhalte, wie Gehaltsdaten oder interne Verträge, versehentlich in generierte Texte oder Antworten einfließen.
Theorie klingt gut, die Praxis leider noch nicht. Ich habe das Ganze ausprobiert, um zu sehen, wie gut der Schutz funktioniert.
Mein Testlauf: Die dunkle Seite der Macht in Aktion
Ich habe einen selbst erstellten Agent „Dokumenten-Informationsagenten“ mittels Copilot Studio nach dem Inhalt einer Gehaltstabelle für das Jahr 2025 gefragt. Und er hat mir brav geantwortet.
Mit konkreten Gehaltszahlen!

Neugierig geworden, wollte ich es genauer wissen. Ich habe den Agenten gefragt, ob dieses Dokument nicht ein Label hat, das es ihm eigentlich verbieten würde, darauf zuzugreifen. Die Antwort: Ja, das Dokument trägt das Label „Secret – no Copilot“.

Ich habe nachgehakt: Wenn das Dokument dieses Label trägt, warum kann der Agent dann trotzdem auf die Inhalte zugreifen? Die Antwort: Der Agent betont, dass er auf den Inhalt nicht zugreifen kann, weil das Label „Secret – no Copilot“ das verbietet.

Doch die Realität spricht eine andere Sprache. Er hat auf den Inhalt zugegriffen. Er hat die Gehaltsdaten genannt, obwohl er es laut Label gar nicht dürfte.

Hier habe ich Copilot 365 gefragt
Glücklicherweise zeigt sich ein anderes Bild, wenn ich direkt Copilot 365 frage. Hier wird das Label korrekt erkannt und angezeigt. Copilot meldet mir, dass das Dokument als „Secret – no Copilot“ gekennzeichnet ist und dass er den Inhalt nicht anzeigen oder analysieren darf. Das Label wird mir auch als Pop-up angezeigt, sodass ich die Schutzstufe sofort erkenne.

Was bedeutet das für die Praxis?
Solche Fälle sind nicht einfach ein kleiner Schönheitsfehler. In der Praxis können sie fatale Folgen haben. Wenn vertrauliche Informationen wie Gehaltszahlen, Vertragsdetails oder interne Strategiepapiere von einem KI-Agenten einfach ausgeplaudert werden, stehen Unternehmen vor handfesten Datenschutz- und Compliance-Problemen.
Die DLP-Funktion sollte eigentlich genau das verhindern. Sie sollte dafür sorgen, dass Inhalte mit einem Sensitivitätslabel wie „Secret – no Copilot“ als unantastbar gelten. Der Agent sollte diese Daten ignorieren und keinen Zugriff darauf haben. Doch mein Test zeigt, dass die Technik aktuell noch nicht ausgereift ist.
Mein Fazit
Microsoft ist mit Purview DLP auf einem guten Weg, den Einsatz von Copilot Agents sicherer zu machen. Das Konzept ist wichtig, die Idee sinnvoll. Aber in der Praxis hapert es noch. Die Agents verhalten sich in der aktuellen Version eher wie ein Padawan, der noch nicht ganz auf der hellen Seite der Macht angekommen ist.
Solange dieser Schutzmechanismus nicht zuverlässig funktioniert, bleibt das Risiko bestehen, dass sensible Informationen versehentlich öffentlich werden oder in falsche Hände geraten. Unternehmen sollten sich darauf nicht blind verlassen, sondern interne Prozesse und Kontrollen ergänzen.
Ich hoffe, dass Microsoft hier schnell nachbessert. Bis dahin gilt: Noch sind die Copilot Agents auf der dunklen Seite der Macht unterwegs – aber ich bin gespannt, wie lange noch.
Hier geht’s zur offiziellen Microsoft-Dokumentation:
Data Loss Prevention für Microsoft 365 Copilot Agents
Schreibe einen Kommentar