Schatten-KI im KMU: Warum Verbote scheitern und was wirklich hilft
Ein typisches Szenario, das mir in dieser Form regelmäßig in österreichischen KMU begegnet: Eine Steuerberatungskanzlei mit 35 Mitarbeitern, gut digitalisiert, ordentliche IT. Die Geschäftsführerin überlegt, einen KI-Assistenten für die Mandantenkommunikation einzuführen. Auf die Frage, ob aktuell schon jemand im Team ChatGPT nutze, kommt die übliche Antwort: "Nein, das haben wir nicht freigegeben."
Macht man dann eine anonyme Kurzumfrage im Team, sieht das Bild ganz anders aus. In Setups dieser Größenordnung nutzen typischerweise 20 von 35 Mitarbeitern ChatGPT regelmäßig — über den Privataccount, am Privathandy, teilweise mit eingefügten Mandanten-E-Mails zum Zusammenfassen. Eine Mitarbeiterin kopiert den Entwurf einer Steuererklärung in die Free-Version, um "die Formulierung zu glätten". Niemand tut das aus böser Absicht. Es ist einfach schneller als die offizielle Variante — die es ja nicht gibt.
Das ist Schatten-KI. Und sie ist in den meisten österreichischen KMU, die ich sehe, längst Realität — nur unsichtbar.
Die stille Realität: Ihr Team nutzt KI bereits
Die Studien, die in den letzten Monaten durchlaufen sind — Microsoft Work Trend Index, Cisco AI Readiness, diverse deutschsprachige Erhebungen — zeigen alle dieselbe Größenordnung: Zwischen 40 und 75 Prozent der Wissensarbeiter nutzen generative KI im Job, ohne dass es offiziell freigegeben wäre. Im KMU-Segment liegt der Wert eher am oberen Ende, weil dort die offizielle Toollandschaft oft schwächer ausgebaut ist als in Konzernen.
Die typischen Szenarien, die mir in Gesprächen mit Geschäftsführern und IT-Verantwortlichen begegnen:
- Vertriebsmitarbeiter, die Angebotstexte in ChatGPT formulieren lassen — inklusive Kundenname, Projektvolumen und Konditionen.
- Office-Management, das eingehende Kunden-E-Mails zusammenfasst, weil 80 Mails pro Tag anders nicht zu schaffen sind.
- HR-Teams, die Bewerbungsunterlagen durch KI-Tools jagen, um eine erste Vorauswahl zu treffen — mit personenbezogenen Daten ohne jede Rechtsgrundlage.
- Geschäftsführer selbst, die Verträge oder strategische Notizen "nur kurz zusammenfassen lassen".
Das Muster: Es passiert nicht aus Sorglosigkeit. Es passiert, weil der Zeitdruck real ist und die offizielle Alternative entweder fehlt, schlechter funktioniert oder nicht bekannt ist. Wer das ignoriert, verliert Kontrolle. Wer es mit einem pauschalen Verbot beantwortet, auch — nur mit dem Zusatzeffekt, dass die Nutzung dann auf Privatgeräte abwandert und unsichtbar wird.
Was Schatten-KI von klassischer Schatten-IT unterscheidet
Schatten-IT kennen wir seit zwanzig Jahren — Dropbox-Account statt Firmen-Share, privates Gmail für Kundenmails, WhatsApp-Gruppen für Projektabstimmung. Das Risiko war begrenzt: Daten lagen am falschen Ort, ließen sich aber meist klar lokalisieren und im Notfall löschen.
Schatten-KI ist eine andere Kategorie. Drei Unterschiede sind entscheidend:
Erstens das Volumen. Eine Mitarbeiterin, die täglich zehn Mandanten-E-Mails in ChatGPT zusammenfasst, schickt in einem Monat mehr personenbezogene Daten an ein US-Unternehmen als ein klassischer Schatten-Dropbox-Account in einem Jahr.
Zweitens die Trainingsdaten-Frage. Bei der ChatGPT Free- und Plus-Version werden Eingaben standardmäßig zur Modellverbesserung verwendet, sofern man das nicht explizit deaktiviert. Was einmal in einem Modell-Update gelandet ist, bekommt man nicht mehr heraus. Das ist ein qualitativer Sprung gegenüber Datei-basierter Schatten-IT.
Drittens die Output-Haftung. Wenn ein Mitarbeiter ein KI-generiertes Angebot mit falschen Zahlen rausschickt, ist die Haftung ungeklärt. Es gibt kein "die KI hat sich geirrt" als Rechtsfigur. Verantwortlich bleibt das Unternehmen.
Die echten Risiken — konkret, nicht abstrakt
Ich ärgere mich an Artikeln, die mit "DSGVO-Bußgelder bis zu 20 Millionen Euro" Panik schüren. Das ist statistisch nicht das wahrscheinlichste Szenario. Was tatsächlich passiert, ist anderes.
Drittlandtransfer ohne Rechtsgrundlage. Wenn personenbezogene Daten — Kundennamen, E-Mail-Adressen, Bewerbungsunterlagen — in ChatGPT Free landen, ist das ein Datentransfer in die USA ohne ordentliche Rechtsgrundlage. Das EU-US Data Privacy Framework deckt OpenAI ab, sofern es zertifiziert ist; die Free-Version wird aber typischerweise ohne AV-Vertrag genutzt. Ein Datenschutzbeschwerde-Verfahren in Österreich oder Deutschland kostet Sie nicht primär Geld, sondern Zeit, Nerven und Reputation. Aus Fällen, die ich in den letzten Monaten mitbekommen habe, ist klar: Das Auskunftsersuchen einer Datenschutzbehörde allein bindet schnell drei Wochen Arbeitszeit im Unternehmen.
Geschäftsgeheimnisse im Trainingsdatensatz. Typisches Muster aus dem Maschinenbau: Ein Konstrukteur gibt ein noch unveröffentlichtes Bauteil-Konzept in ChatGPT ein, um eine englische Beschreibung daraus zu generieren. Patentanmeldung ist zu dem Zeitpunkt noch nicht eingereicht. Ob das Konzept jetzt irgendwo in einem Modell-Gewicht steckt, kann niemand mit Sicherheit sagen. Der Patentanwalt wird nervös, das Konzept muss überarbeitet werden, der Wettbewerbsvorteil ist zumindest fragwürdig.
Falsche Zahlen in Kundenangeboten. Der häufigste Fall, der in der Beratungspraxis aufschlägt. Mitarbeiter lassen ChatGPT Angebotstexte oder Kalkulationen formulieren, das Modell halluziniert plausibel klingende Zahlen oder rechnet falsch, niemand prüft das nach, weil "die KI hat das gemacht". Klassisches Beispiel: Bei einem IT-Dienstleister geht ein Angebot mit einem zu niedrigen Tagessatz raus, weil ChatGPT in der Tabelle eine Stelle verschoben hat. Der Kunde unterschreibt. Das Projekt wird mit Verlust durchgezogen.
Die ersten beiden Risiken sind theoretisch hoch, statistisch noch selten. Das dritte Risiko ist heute Alltag.
Warum Verbote scheitern
Die reflexhafte Reaktion vieler Geschäftsführer, wenn sie das Problem zum ersten Mal verstehen, ist: "Dann verbieten wir das eben." Das funktioniert aus drei Gründen nicht.
Erstens technisch. Sie können ChatGPT.com im Firmen-WLAN sperren. Das Privathandy mit Mobilfunk steht zehn Sekunden später auf dem Schreibtisch. Sie können USB-Sticks sperren — die Mitarbeiterin fotografiert den Bildschirm und tippt den Text zu Hause ab. Wer KI nutzen will, weil es ihm Zeit spart, findet einen Weg.
Zweitens betrieblich. Die Produktivitätsdifferenz ist real. Bei systematisch eingesetzter KI-Unterstützung sehe ich in Texterstellung, Recherche und Routinekommunikation Zeitersparnisse von 20 bis 40 Prozent. Wer das verbietet, ohne eine Alternative zu bieten, bestraft die produktivsten Mitarbeiter und treibt sie mittelfristig zum Wettbewerber.
Drittens kulturell. Ein Verbot ohne Erklärung erzeugt Versteckspiel. Mitarbeiter melden Vorfälle nicht mehr, weil sie selbst etwas Verbotenes gemacht haben. Damit verlieren Sie genau die Information, die Sie für Governance bräuchten.
Das Ziel kann nicht Null-Toleranz sein. Es muss kontrollierte Nutzung sein.
Der pragmatische Dreischritt für KMU
Ich arbeite mit kleinen und mittleren Unternehmen, die meist keinen CISO haben, oft auch keine Vollzeit-IT. Was dort funktioniert, ist nicht ein 40-seitiges AI-Governance-Framework. Was funktioniert, sind drei Schritte, die in zwei bis drei Wochen aufsetzbar sind.
Schritt 1: Datenklassifizierung — drei Kategorien reichen
Vergessen Sie ISO-27001-Klassifizierungsschemata mit sieben Stufen. Für ein KMU genügen drei Kategorien:
- Öffentlich: Marketingtexte, Webseiteninhalte, allgemeine Branchenrecherchen. Darf in jedes KI-Tool.
- Intern: Prozessbeschreibungen ohne Personenbezug, allgemeine Vorlagen, interne Notizen ohne Geschäftsgeheimnis. Darf in genehmigte KI-Tools mit AV-Vertrag.
- Vertraulich: Kundendaten, Personaldaten, Finanzdaten, unveröffentlichte Konzepte, Verträge. Geht nie in externe Consumer-KI. Punkt.
Die Regel muss in einem Satz erklärbar sein, sonst hält sie keiner ein. Im Kanzlei-Umfeld lautet die Regel typischerweise: "Alles, wo ein Mandantenname drinsteht oder draus rekonstruierbar wäre, ist vertraulich." Das versteht jeder.
Schritt 2: Tool-Whitelist statt Blacklist
Benennen Sie zwei bis drei genehmigte Tools. Nicht zehn. Mehr Auswahl heißt mehr Verwirrung und weniger Compliance.
Für die meisten österreichischen KMU, mit denen ich arbeite, ist die Kombination:
- Microsoft 365 Copilot, wenn das Unternehmen ohnehin auf M365 läuft. Datenhaltung in EU-Rechenzentren, AV-Vertrag im Standard-Microsoft-Konstrukt, Integration in Outlook und Word direkt am Arbeitsplatz. Lizenzkosten rund 30 Euro pro User und Monat.
- ChatGPT Team oder Enterprise, wenn flexibler Chat-Einsatz gefragt ist. Im Team-Tarif werden Eingaben standardmäßig nicht zum Training verwendet. AV-Vertrag verfügbar. Rund 25 Euro pro User und Monat.
- Lokale Modelle (Ollama, LM Studio mit Llama 3.1 oder Qwen 2.5) für sehr sensible Daten, wenn die IT-Ressourcen das hergeben. Realistisch eingeschätzt: Das ist für die meisten KMU unter 50 Mitarbeitern kein realistischer Erstweg, weil der Wartungsaufwand unterschätzt wird. Sinnvoll wird es ab dem Punkt, an dem Sie regelmäßig vertrauliche Daten KI-gestützt verarbeiten wollen.
Wichtig: Die Whitelist muss erklärt werden, nicht nur gelistet. Mitarbeiter müssen verstehen, warum ChatGPT Team okay ist und ChatGPT Free nicht. Sonst halten sie es nicht ein.
Schritt 3: Die Alternative muss tatsächlich nutzbar sein
Das ist der Schritt, an dem die meisten Governance-Versuche scheitern. Wenn das genehmigte Tool langsamer, schlechter oder umständlicher ist als das verbotene, wird das verbotene weiter genutzt. Ein häufiges Muster: Unternehmen lizenzieren Microsoft Copilot, die Mitarbeiter nutzen aber weiter ChatGPT Free, weil Copilot bei freier Texterstellung schwächer ist.
Die Konsequenz: Testen Sie das genehmigte Tool an realen Use-Cases, bevor Sie es freigeben. Wenn der Vertrieb Angebote schreiben will und Copilot dafür schlechter ist als ChatGPT, brauchen Sie ChatGPT Team — oder Sie müssen begründen können, warum die Mitarbeiter mit der schlechteren Variante leben sollen.
Die KI-Richtlinie: ein Blatt, nicht ein Buch
Eine Richtlinie, die niemand liest, ist keine Richtlinie. Was funktioniert, ist ein einseitiges Regelblatt mit fünf Punkten:
- Welche Tools sind freigegeben (mit Login-Anweisung).
- Welche Datenkategorien dürfen in welche Tools.
- Was ist explizit verboten (Consumer-Versionen mit Firmen-Daten).
- An wen wende ich mich bei Unsicherheit (eine konkrete Person mit Namen, nicht "die IT").
- Wie melde ich einen Vorfall — ohne Bestrafungsangst.
Dazu eine 30-minütige Onboarding-Session live oder als Video, in der die Regeln erklärt werden. Nicht: "Hier ist das PDF, bitte unterschreiben." Das ist juristische Hygiene, kein Governance-Werkzeug.
Der Punkt fünf ist der wichtigste und der, der am häufigsten fehlt. Wenn ein Mitarbeiter merkt, dass er versehentlich Mandantendaten in ChatGPT eingegeben hat, muss er das melden können, ohne dass er sich um seinen Job sorgen muss. Sonst erfahren Sie nie davon, und der Schaden multipliziert sich.
Mitarbeiter ins Boot holen — nicht über Angst
Die Kommunikation, die ich erfolgreich finde, framed KI-Nutzung als Chance, nicht als Bedrohung. Der Tenor ist: "Wir wissen, dass diese Tools nützlich sind. Wir wollen, dass ihr sie nutzt — aber sicher. Hier sind die Spielregeln, hier ist das genehmigte Tool, hier ist die Person, die ihr fragen könnt."
Das Gegenmodell — "KI ist gefährlich, lasst die Finger davon" — produziert genau das Versteckspiel, das Sie vermeiden wollen.
Ein praktischer Hebel, der im Kanzlei-Setup oben gut funktioniert: In der ersten Woche nach Freigabe von ChatGPT Team eine offene Mittagsrunde machen. Wer will, zeigt seinen besten KI-Use-Case. Daraus entstehen typischerweise drei bis fünf interne Best Practices, die im Team-Wiki landen. Innerhalb von vier Wochen ist die Privat-Account-Nutzung praktisch verschwunden — nicht weil sie verboten ist, sondern weil das genehmigte Tool besser eingebunden und sozial sichtbar ist.
Diese Woche starten
Wenn Sie das Problem ernst nehmen, sind das die ersten Schritte für die kommenden zehn Tage:
- Anonyme Bestandsaufnahme im Team. Vier Fragen, fünf Minuten: Welche KI-Tools nutzt ihr? Wie oft? Wofür? Was würde euch helfen, wenn es offiziell zur Verfügung stünde? Das Ergebnis wird Sie überraschen.
- Datenklassifizierung in 60 Minuten. Setzen Sie sich mit zwei bis drei Personen aus unterschiedlichen Bereichen zusammen und ordnen Sie die typischen Dokumentkategorien Ihres Unternehmens den drei Kategorien zu. Schreiben Sie es auf eine A4-Seite.
- Einen Tool-Kandidaten evaluieren. M365 Copilot, wenn Sie Microsoft-Haus sind. Sonst ChatGPT Team. Lizenzieren Sie für drei bis fünf Pilotnutzer. Prüfen Sie an realen Aufgaben, ob es funktioniert.
- Richtlinien-Draft auf einer Seite. Lieber einseitig und gelebt als zwanzigseitig und Schubladen-Material.
Das ist kein Projekt für ein Quartal. Das ist Arbeit für zwei bis drei Wochen, wenn Sie es ernst meinen. Was es kostet, sind ein paar Lizenzen und die Aufmerksamkeit der Geschäftsführung. Was es spart, ist die nächste unangenehme Frage der Datenschutzbehörde — oder das Angebot mit der falschen Kommastelle.
Wenn Sie unsicher sind, wo Ihr Betrieb steht, oder einen externen Blick auf die Tool-Auswahl und die Richtlinie haben wollen: Genau das ist meine Beratungspraxis. Ein erstes Gespräch klärt in der Regel innerhalb einer Stunde, ob Sie das selbst aufsetzen können oder wo es haken wird.