21. April 2026, 10:20
Lesezeit: ca. 5 Min

Der weltgrößte Spielzeughersteller ist...

… wer sein Hauptprodukt als solches in den Terms of Use spezifiziert:1

Copilot is for entertainment purposes only. It can make mistakes, and it may not work as intended. Don’t rely on Copilot for important advice. Use Copilot at your own risk.

Das Medienecho der vergangenen Tage fiel entsprechend deutlich aus. Ich wurde bereits gefragt, warum ausgerechnet ich, mit meiner speziellen Geschichte mit Microsoft,2 noch nichts dazu geschrieben habe. Zugegeben: Es fällt mir schwer, bei etwa aus Redmond nicht polemisch zu werden. Zudem ist es für mich keine wirkliche Neuigkeit. Microsoft attestiere ich noch nicht einmal mehr die Qualität eines Spielzeugs. Mein Quote vom letzten Jahr nach der Installation von Steam auf Linux und den sofortigen Leistungsgewinn auf gleicher Hardware bringt es auf den Punkt:3

Jetzt kann ich nicht mehr sagen, dass Windows nur noch zum Spielen was taugt.

Gleichzeitig komme ich beruflich, ob ich will oder nicht, immer wieder mit Microsoft Produkten in Berührung. Dabei zeige ich regelmäßig, wie sich mit weniger Microsoft und mehr freien Lösungen oft bessere, souveränere, risikoärmere und häufig günstigere Ergebnisse erzielen lassen.

Und entgegen mancher Meinung lassen sich Microsoft Produkte in Unternehmen durchaus sicher betreiben, vorausgesetzt, kompensierende Maßnahmen werden konsequent umgesetzt. Dazu zählen das Offline-Setzen der AD-Infrastruktur, striktes App-Whitelisting, der Einsatz von RDP- und RDS-Terminalservern sowie Linux basierte Endgeräte.4

Nachfolgend der Versuch einer möglichst unpolemischen Einordnung.

Kontextualisierung

Microsoft unterscheidet zwischen mehreren Copiloten:5

Microsoft Copilot is your digital companion for daily life designed to inform, entertain, and inspire. Using advanced AI, Copilot understands your questions and requests, provides direct answers, assists with writing, and even creates images.
Microsoft 365 Copilot is an AI assistant for work that’s built to support organizations and businesses. Copilot combines advanced language models with your business data and your everyday productivity apps—such as Word, Excel, PowerPoint, Outlook, and Teams.
Microsoft Security Copilot is an AI assistant for daily operations in security and IT—enabling teams to protect their organizations at the speed and scale of AI while maintaining compliance with responsible AI principles.
GitHub Copilot is an AI coding assistant that helps you write code faster and with less effort, allowing you to focus more energy on problem solving and collaboration.

Was durchaus Sinn ergibt. Large Language Models (LLM)6 entwickeln sich weiter und unterschiedliche Anwendungsfälle mit jeweils eigenen Trainingsdaten führen zu variierenden statistischen Ergebnissen. In den vergangenen Jahren wurden Verbesserungen vor allem durch strukturiertere Promptverarbeitung und mehrstufige Verfahren erreicht, etwa durch “Chain of Thought” oder dem sogenannten Reasoning.7

Das war es aber auch schon. Man sollte sich immer wieder vergegenwärtigen: LLMs sind statistische Modelle, die Wort für Wort das jeweils wahrscheinlichste nächste Wort bestimmen, ohne den Gesamtkontext zu verstehen. Bestenfalls liegt eine statistische Approximation von Kontext vor. Das wird besonders dort deutlich, wo man LLMs auffordert eine Quelle hinter einem Link zu bewerten und feststellen muss, dass diese den Link gar nicht geöffnet und den Text gelesen hat.

Es gibt nicht “die” eine Terms of Use für alle genannten Copiloten, sondern unterschiedliche rechtliche Realitäten je nach Produkt und organisatorischen Kontext. Die unterschiedlichen Pressemeldungen und Berichterstattungen waren dahingehend teils stark verkürzend.

Risiko und Haftung

Die entscheidende Frage ist, in welchem rechtlichen und organisatorischen Kontext Copilot eingesetzt wird. Im Consumer Umfeld ist die Sache trivial und für viele IT-Produkte marktüblich. Wenn ein Hersteller sein Produkt selbst als nicht verlässlich einordnet und die Nutzung ausdrücklich auf eigene Gefahr erfolgt, betreibt er Risikominimierung.

Problematisch wird es im Unternehmensumfeld. Hier werden die gleichen oder ähnliche Modelle als produktive Werkzeuge mit den einschlägig bekannten Werbeversprechen vermarktet. Praktisch ändert sich an der technischen Grundlage kaum etwas. Vertragsgegenstand in den AGB ist und bleibt ein statistisches Modell mit den zuvor beschriebenen Unzuverlässigkeiten.

Während die Consumer Terms of Use bei Microsoft leicht zugänglich und eindeutig formuliert sind, sorgt die Fragmentierung der für Unternehmenskunden relevanten Regelungen über eine Vielzahl von Verträgen und Zusatzvereinbarungen für deutlich geringere Transparenz. Das ist lediglich eine andere Art der Risikominimierung: Verantwortungsdiffusion.

Sind die anderen Copiloten besser?

Auch in einem anderen organisatorischen Kontext bleibt ein Copilot ein statistisches Modell, eine sehr schnelle Matrizenrechenmaschine ohne Verständnis von Konzepten im eigentlichen Sinne.8 Es gibt keine Garantie für Korrektheit, keine intrinsische Nachvollziehbarkeit, keine deterministischen Ergebnisse - zumindest für die Default-BigTech-Blackbox-Modelle wie Copilot.

Der Unterschied liegt damit weniger in der Qualität des Modells als in der Umgebung, in der es betrieben wird. Die Systeme werden besser integriert mit anderen Trainingsdaten und Guardrails. Interaktive Elemente und Gegenfragen steigern das Engagement.9 Der wahrgenommene Reifegrad steigt schneller als der tatsächliche.

Die Frage daher ist nicht, ob ein Copilot im Business Kontext besser ist, sondern ob eine Organisation in der Lage ist, mit einem solchen System zu arbeiten.

Fazit

Zum Schluss doch noch ein Hauch Polemik und ein Blick ins Buchregal.

Copilot als Produkt, stellvertretend für viele andere Mainstream-LLM-Produkte, ist Spielzeug. Im Consumer Bereich wird das offen, rechtsverbindlich und faktisch so kommuniziert. Im Unternehmensumfeld wird es intransparent in Verträgen, Integrationen und Prozessen eingebettet. Die Risiken verschwinden dadurch nicht, sie werden anders verteilt. Als bessere Rechtschreibkorrektur oder Codevervollständigung können LLMs durchaus produktiv sein. Werden Ausgaben ungeprüft als Ergebnisse oder Entscheidungsgrundlage genommen, wird es schnell gefährlich. Dessen ist sich Microsoft als Hersteller bewusst und verschiebt die Verantwortung auf die Organisation, das die Produkte auf Mitarbeiter oder Kunden loslässt.

Menschen neigen dazu, Dinge zu glauben, die plausibel klingen, insbesondere wenn sie schnell und bequem verfügbar sind. Das gilt umso mehr für Dinge außerhalb des eigenen “Circle of Competence”.10 Hinzu kommt, dass seit jeher Menschen auch dazu neigen, Dingen, die sie logisch nicht verstehen, etwas Magisches zuzuschreiben. Aus einem LLM wird schnell eine Art Naturgeist. Ob Policies und Freigabeprozesse diese psychologischen Effekte kompensieren?

Ohne grundlegendes mathematisches und programmiertechnisches Verständnis darüber, wie ein LLM funktioniert, und ohne Governance mit ihren Regeln, Kontrollen und Verantwortlichkeiten wird das zum Risiko. Und auch ohne KI scheitert es an der Governance bekanntlich in vielen kleinen und großen Unternehmen.

Gegen das Nichtwissen kann jeder aktiv etwas unternehmen. Mir persönlich hat vor knapp 10 Jahren das Buch “Neuronale Netze selbst programmieren” von Tariq Rashid sehr geholfen, zwischen Hype und Mathematik zu unterscheiden.11

In diesem Sinne,
Tomas Jakobs

Buchtitel Neuronale Netze in meinem Buchregal

© 2026 Tomas Jakobs - Impressum und Datenschutzhinweis

Mitglied im UberBlgr Webring:   < Zurück > Weiter >  

Unterstütze diesen Blog - Spende einen Kaffee