- Elon Musk bestätigt vor Gericht: xAI hat Grok teilweise mit ChatGPT‑Ausgaben trainiert
- Vorwurf der Modelldestillation trifft sonst meist chinesische Firmen; nun auch US‑Unternehmen
- Musk: „Alle Unternehmen verwenden die Modelle der Konkurrenz“
- Destillation spart Kosten, beschleunigt Entwicklung, ist aber rechtlich Grauzone
- Moralische Debatte: US‑Firmen kritisieren China; nutzen aber selbst ähnliche Methoden
Ein Wort. Im falschen Gerichtssaal gesagt.
Modelldestillation bedeutet: Ein Modell lernt nicht aus Rohdaten, sondern aus den Antworten eines anderen Modells. Grok hat, zumindest teilweise, aus ChatGPT-Ausgaben gelernt. Das ist günstiger als klassisches Training, schneller, effizienter; ein enormer Kostenvorteil, besonders wenn man ein neues Modell in kurzer Zeit wettbewerbsfähig machen will.
Es ist auch genau das, wofür die USA China seit Jahren kritisieren.
Deepseek, Minimax, Moonshot AI: chinesische Entwickler wurden von OpenAI und Anthropic mehrfach öffentlich beschuldigt, ihre Modelle durch Destillation aus amerikanischen Systemen zu entwickeln. Das wurde als wirtschaftlicher Angriff gerahmt, als technologischer Diebstahl, als Grund für Exportkontrollen und regulatorischen Druck.
Die US-Regierung unterstützte diese Erzählung, weil sie nützlich war.
Jetzt sitzt Elon Musk in einem Gerichtssaal und sagt, xAI habe dasselbe getan. Nicht heimlich, nicht verklausuliert. „Teilweise."
Man kann das als Prozessstrategie lesen: Musk will OpenAI als Heuchler darstellen, sich selbst als den, der nur ausspricht, was in der Branche alle tun. Das ist durchaus plausibel. Musk ist kein naiver Zeuge, und die Aussage war keine Versprecher. Sie war kalkuliert.
Aber Kalkulation schließt Konsequenzen nicht aus.
Die Rechtslage ist, wie so oft in der KI-Branche, ein Graubereich mit politischer Sprengkraft. Urheberrecht verletzt Destillation in den USA kaum: KI-Antworten genießen dort wenig rechtlichen Schutz. Ein AGB-Verstoß liegt wahrscheinlich vor, aber das ist Zivilrecht, kein Strafrecht, und die Beweisbarkeit ist extrem schwierig. OpenAI könnte klagen. Ob es Erfolg hätte, ist offen.
Was nicht offen ist: die moralische Inkonsistenz. OpenAI hat seine eigenen Modelle auf urheberrechtlich geschützten Texten trainiert, ohne vorherige Zustimmung der Autoren. Dasselbe Unternehmen, das anderen „Diebstahl" vorwirft, sitzt selbst in mehreren Klagen. Das macht die Debatte zu dem, was sie wirklich ist: kein Rechtsstreit über faire Praktiken, sondern ein Machtkampf um Deutungshoheit. Wer darf was nutzen? Wer entscheidet das? Und vor allem: Wessen Regeln gelten, wenn alle dieselben Tricks anwenden?
Insider überrascht Musks Eingeständnis nicht. Destillation ist in der KI-Industrie verbreitet, schlecht dokumentiert und selten öffentlich diskutiert.
Was Musk getan hat, ist nicht das Enthüllen eines Geheimnisses: er hat einen offenen Branchenstandard ausgesprochen, der bislang hinter Formulierungen wie „wir nutzen verschiedene Trainingsdaten" versteckt war.
Das hat seinen Reiz. Und seinen Preis.
Musk positioniert xAI als das Unternehmen, das wenigstens ehrlich ist. Das ist eine Marktposition, nicht ganz ohne Charme in einer Branche, in der jeder behauptet, die ethisch überlegene KI zu bauen.
Die Aussage liegt jetzt im Protokoll eines Bundesgerichts, und OpenAI-Anwälte sind nicht dafür bekannt, solche Protokolle ungenutzt zu lassen.
Hinter dem Einzelfall steckt eine größere Frage, die die Branche bisher nicht wirklich beantwortet hat. Wenn Modelle voneinander lernen, wenn Antworten zu Trainingsdaten werden und Trainingsdaten zu neuen Modellen: Wem gehört dieses Wissen dann? Wer hat das Recht, es zu nutzen? Und was bedeutet geistiges Eigentum in einem System, das auf dem kollektiven Output aller Beteiligten aufbaut?
Das ist keine rhetorische Frage. Sie wird gerade in mehreren Gerichtsverfahren gleichzeitig verhandelt, mit ungewissem Ausgang und enormen wirtschaftlichen Folgen.
Musk hat mit einem Wort eine Debatte entfacht, die die KI-Regulierung der nächsten Jahre prägen könnte. „Teilweise."
Kommentare
Kommentar veröffentlichen
Kommentar