Was diese Woche passiert ist
Anthropic hat am 8. Mai eine Forschungsarbeit unter dem Titel „Teaching Claude Why” veröffentlicht. Kurzfassung: Das Unternehmen erklärt detailliert, wie Claude nicht nur darauf trainiert wird, was zu tun ist, sondern warum bestimmte Antworten richtig oder falsch sind. Statt dem Modell nur Verhaltensregeln einzubläuen („Antworte nicht auf Frage X”), bekommt es die Begründung mitgeliefert („Antworte nicht, weil daraus folgendes Risiko entsteht”).
Der Beitrag landete mit 110 Punkten und 43 Kommentaren auf der Hacker-News-Frontpage — was in der Entwickler-Community ein klares Signal ist: Das Thema trifft einen Nerv. Die Diskussion dreht sich vor allem um eine Frage: Macht „Begründungs-Training” Modelle wirklich robuster — oder produziert es nur eloquentere Ausreden, wenn das Modell scheitert?
Für KMU klingt das auf den ersten Blick nach akademischer Forschung. Ist es aber nicht. Hier kommt das Warum.
Warum das jetzt für österreichische KMU zählt
Die meisten KMU, die ich berate, behandeln Sprachmodelle wie eine Black Box: Frage rein, Antwort raus, fertig. Funktioniert in 80 Prozent der Fälle. Die anderen 20 Prozent — und genau da entstehen die teuren Probleme — sind die, in denen das Modell nachvollziehbar handeln muss, nicht nur richtig.
Typisches Beispiel aus der Praxis: Ein Steuerberatungsbüro setzt Claude für eine erste Mandantenanfrage-Filterung ein. Das Modell verweigert plötzlich Auskunft zu einer harmlosen umsatzsteuerlichen Frage, weil es im Training gelernt hat, „keine rechtsverbindlichen Steuerauskünfte zu geben”. Aus Sicht des Modells: korrekt. Aus Sicht des Geschäftsführers: kaputt. Aus Sicht des Mandanten, der nun zwei Tage auf eine Antwort wartet: ärgerlich.
Genau hier setzt der Anthropic-Ansatz an. Wenn das Modell nicht nur die Regel kennt, sondern den Grund, kann es besser unterscheiden: „Steuerliche Grundsatzauskunft mit Disclaimer” ist etwas anderes als „individuelle verbindliche Rechtsauskunft im Einzelfall”. Das erste ist sinnvoll, das zweite tatsächlich problematisch.
Aus meiner Sicht ist diese Veröffentlichung aus drei Gründen wichtig:
Erstens: Transparenz wird zum Auswahlkriterium. Bisher war die Modellauswahl für KMU meist eine Frage von Preis und Latenz. Wer im B2B-Bereich KI einsetzt — und gegenüber Kunden, Mitarbeitern oder Aufsichtsbehörden erklären muss, warum die KI dies oder jenes tut — wird zunehmend Anbieter bevorzugen, die offenlegen, wie trainiert wurde. Anthropic positioniert sich hier bewusst.
Zweitens: Der EU AI Act greift. Seit Februar 2025 sind die ersten Verpflichtungen des AI Act in Kraft, weitere folgen schrittweise bis 2027. Für Hochrisiko-Anwendungen — und dazu zählt überraschend viel im KMU-Bereich, etwa HR-Tools oder Kreditscoring — ist Erklärbarkeit nicht Kür, sondern Pflicht. Wer einen Anbieter wählt, der das Werte-Training dokumentiert, hat es bei der Compliance-Dokumentation deutlich leichter.
Drittens: Halluzinationen bekommen einen neuen Charakter. Modelle, die mit Begründungslogik trainiert sind, halluzinieren nicht weniger — aber sie halluzinieren anders. Sie produzieren plausibler klingende Falschauskünfte, weil sie auch die Begründung gleich miterfinden. Das ist gefährlicher, nicht harmloser. Wer das nicht versteht, prüft die Outputs falsch.
Was Sie diese Woche konkret tun sollten
Drei Schritte, in der Reihenfolge:
1. Inventur Ihrer KI-Einsätze: Wo ist „warum” wichtig?
Gehen Sie Ihre aktuellen Use-Cases durch und markieren Sie jeden, bei dem ein Mensch — Kunde, Mitarbeiter, Prüfer — irgendwann fragen könnte: „Warum hat die KI das so entschieden?” Bei reinen Produktivitäts-Tasks (E-Mail-Entwürfe, Zusammenfassungen) ist die Antwort meist: egal. Bei allem mit Außenwirkung, rechtlicher Relevanz oder Personalbezug ist die Antwort: kritisch. Letztere Use-Cases brauchen eine Modellwahl und Prompt-Architektur, die Begründungen mitliefert.
2. Prüfprozess anpassen: Stichproben mit Begründungs-Fokus.
Wenn Sie heute KI-Outputs stichprobenweise kontrollieren — gut. Wenn nicht — fangen Sie an. Wichtiger Punkt: Prüfen Sie nicht nur, ob die Antwort richtig ist, sondern auch, ob die mitgelieferte Begründung trägt. Eine Faustregel aus meinen Projekten: Bei 5 Prozent der Outputs stimmt das Ergebnis, aber die Begründung ist erfunden. Genau diese Fälle sind die gefährlichsten, weil sie bei der nächsten ähnlichen Anfrage zu falschen Ergebnissen führen werden.
3. Anbieter-Gespräch führen — auch wenn Sie zufrieden sind.
Fragen Sie bei Ihrem aktuellen KI-Anbieter (OpenAI, Anthropic, Google, Microsoft, lokale Provider) konkret nach: Wie wird das Modell auf Werte trainiert? Gibt es eine Constitution oder ein vergleichbares Dokument? Wie wird Begründungsfähigkeit getestet? Wenn der Vertriebskontakt nicht antworten kann, eskalieren Sie zur technischen Ebene. Wenn auch dort keine substanzielle Antwort kommt, ist das selbst ein Signal — vor allem, falls Sie 2026 oder 2027 in den AI-Act-Hochrisiko-Bereich fallen.
Mein Rat zum Schluss
Der Anthropic-Beitrag ist Marketing — natürlich. Anthropic positioniert sich als der „durchdachte” Anbieter, im Gegensatz zur Geschwindigkeits-Konkurrenz. Aber das Marketing hat einen wahren Kern: Modelle, die ihre Werte begründen können, sind in regulierten Umgebungen leichter einzusetzen. Und „regulierte Umgebung” wird in den nächsten 24 Monaten für viele KMU nicht mehr „die anderen” bedeuten, sondern „uns”.
Wer jetzt eine KI-Strategie aufsetzt, sollte Erklärbarkeit nicht als Bonus betrachten, sondern als Grundanforderung. Nicht weil es schick ist — sondern weil die Alternative ist, in zwei Jahren eine bereits produktive Lösung wieder auszutauschen. Das ist teurer als von Anfang an richtig zu wählen.