1,5 Milliarden Dollar Vergleich: Was der Anthropic-Fall für KI und Urheberrecht bedeutet

Im September 2025 stimmte Anthropic einem Vergleich in Höhe von 1,5 Milliarden US-Dollar zu. Hintergrund war eine Sammelklage von Autorinnen und Autoren, die dem KI-Unternehmen vorwarfen, Millionen urheberrechtlich geschützter Bücher ohne Erlaubnis zum Training seines Sprachmodells Claude verwendet zu haben.
Der Fall gilt als einer der bisher wichtigsten Präzedenzfälle im Streit um KI-Trainingsdaten und Urheberrecht.
Worum ging es konkret?
Die Klage wurde im August 2024 eingereicht. Zentrale Vorwürfe waren:
- Nutzung von über 7 Millionen Büchern aus nicht autorisierten Quellen
- Downloads von Piraterie-Webseiten
- Zusätzlich: Kauf, Scannen und anschliessende Zerstörung physischer Bücher
Anthropic bestritt kein KI-Training an sich, sondern geriet wegen der Herkunft der Trainingsdaten unter Druck.
Das Urteil: Fair Use hat klare Grenzen
Der zuständige Richter stellte klar:
- ✅ Das Training von KI-Modellen mit Büchern kann Fair Use sein, da es als transformativ gilt.
- ❌ Die Beschaffung über Piraterie-Quellen ist nicht zulässig – unabhängig vom Zweck.
Damit wurde erstmals deutlich zwischen Nutzung und Datenherkunft unterschieden.
Der Vergleich in Zahlen
- Vergleichssumme: 1,5 Milliarden USD
- Betroffene Werke: rund 500’000
- Entschädigung: ca. 3’000 USD pro Werk
- Geltung: ausschliesslich für vergangenes Verhalten
Der Vergleich beendet den konkreten Fall, klärt aber nicht alle offenen Rechtsfragen für die Zukunft.
Warum das für Unternehmen relevant ist
Der Fall zeigt:
Rechtsunsichere Trainingsdaten sind kein theoretisches Risiko mehr, sondern ein massives Haftungs- und Reputationsproblem.
Für Unternehmen bedeutet das:
- Transparenz der KI-Anbieter wird entscheidend
- Datenherkunft und Trainingsmethoden müssen nachvollziehbar sein
- „Black-Box-KI“ wird zunehmend riskant – besonders in Europa
Warum Jurilo bewusst einen anderen Weg geht
Genau aus diesen Gründen wird Jurilo von Lawise.ai ausschliesslich in der Schweiz und Europa gehostet.
Unsere Grundsätze sind klar:
- Kein Einsatz von LLMs, die auf mutmasslich gestohlenen oder nicht lizenzierten Daten trainiert wurden
- Kein Training auf Nutzer- oder Kundendaten
- Volle Ausrichtung auf Schweizer und europäische Rechtsstandards (DSG, EU-konforme Governance)
Der Anthropic-Fall bestätigt:
Rechtssicherheit entsteht nicht nachträglich – sie muss architektonisch eingebaut sein.
Fazit
Der 1,5-Milliarden-Vergleich markiert einen Wendepunkt für die KI-Branche.
Nicht die Leistungsfähigkeit allein entscheidet über die Zukunft von KI-Systemen, sondern Datenherkunft, Governance und rechtliche Sauberkeit.
Für Europa und die Schweiz ist das kein Nachteil – sondern ein struktureller Vorteil.
