1,5 Milliarden Dollar Vergleich: Was der Anthropic-Fall für KI und Urheberrecht bedeutet

Im September 2025 stimmte Anthropic einem Vergleich in Höhe von 1,5 Milliarden US-Dollar zu. Hintergrund war eine Sammelklage von Autorinnen und Autoren, die dem KI-Unternehmen vorwarfen, Millionen urheberrechtlich geschützter Bücher ohne Erlaubnis zum Training seines Sprachmodells Claude verwendet zu haben.

Der Fall gilt als einer der bisher wichtigsten Präzedenzfälle im Streit um KI-Trainingsdaten und Urheberrecht.

Worum ging es konkret?

Die Klage wurde im August 2024 eingereicht. Zentrale Vorwürfe waren:

  • Nutzung von über 7 Millionen Büchern aus nicht autorisierten Quellen
  • Downloads von Piraterie-Webseiten
  • Zusätzlich: Kauf, Scannen und anschliessende Zerstörung physischer Bücher

Anthropic bestritt kein KI-Training an sich, sondern geriet wegen der Herkunft der Trainingsdaten unter Druck.

Das Urteil: Fair Use hat klare Grenzen

Der zuständige Richter stellte klar:

  • ✅ Das Training von KI-Modellen mit Büchern kann Fair Use sein, da es als transformativ gilt.
  • Die Beschaffung über Piraterie-Quellen ist nicht zulässig – unabhängig vom Zweck.

Damit wurde erstmals deutlich zwischen Nutzung und Datenherkunft unterschieden.

Der Vergleich in Zahlen

  • Vergleichssumme: 1,5 Milliarden USD
  • Betroffene Werke: rund 500’000
  • Entschädigung: ca. 3’000 USD pro Werk
  • Geltung: ausschliesslich für vergangenes Verhalten

Der Vergleich beendet den konkreten Fall, klärt aber nicht alle offenen Rechtsfragen für die Zukunft.

Warum das für Unternehmen relevant ist

Der Fall zeigt:
Rechtsunsichere Trainingsdaten sind kein theoretisches Risiko mehr, sondern ein massives Haftungs- und Reputationsproblem.

Für Unternehmen bedeutet das:

  • Transparenz der KI-Anbieter wird entscheidend
  • Datenherkunft und Trainingsmethoden müssen nachvollziehbar sein
  • „Black-Box-KI“ wird zunehmend riskant – besonders in Europa

Warum Jurilo bewusst einen anderen Weg geht

Genau aus diesen Gründen wird Jurilo von Lawise.ai ausschliesslich in der Schweiz und Europa gehostet.

Unsere Grundsätze sind klar:

  • Kein Einsatz von LLMs, die auf mutmasslich gestohlenen oder nicht lizenzierten Daten trainiert wurden
  • Kein Training auf Nutzer- oder Kundendaten
  • Volle Ausrichtung auf Schweizer und europäische Rechtsstandards (DSG, EU-konforme Governance)

Der Anthropic-Fall bestätigt:
Rechtssicherheit entsteht nicht nachträglich – sie muss architektonisch eingebaut sein.

Fazit

Der 1,5-Milliarden-Vergleich markiert einen Wendepunkt für die KI-Branche.
Nicht die Leistungsfähigkeit allein entscheidet über die Zukunft von KI-Systemen, sondern Datenherkunft, Governance und rechtliche Sauberkeit.

Für Europa und die Schweiz ist das kein Nachteil – sondern ein struktureller Vorteil.