KI erzählt Quatsch? Betreiber haften für Falschbehauptungen | FLZ.de | Stage

arrow_back_rounded
Lesefortschritt
Veröffentlicht am 12.03.2026 00:07

KI erzählt Quatsch? Betreiber haften für Falschbehauptungen

Betreiber von KI-Chatbots müssen für unwahre Tatsachenbehauptungen einstehen, die ihre Systeme generieren und öffentlich zugänglich machen. (Foto: Philip Dulian/dpa/dpa-tmn)
Betreiber von KI-Chatbots müssen für unwahre Tatsachenbehauptungen einstehen, die ihre Systeme generieren und öffentlich zugänglich machen. (Foto: Philip Dulian/dpa/dpa-tmn)
Betreiber von KI-Chatbots müssen für unwahre Tatsachenbehauptungen einstehen, die ihre Systeme generieren und öffentlich zugänglich machen. (Foto: Philip Dulian/dpa/dpa-tmn)

Der Betreiber eines Chatbots muss für unwahre oder ehrverletzende Tatsachenbehauptungen der KI haften, wenn die Falschinformationen auf dem Account eines sozialen Netzwerks dauerhaft und öffentlich abrufbar sind. Das hat das Landgericht Hamburg in einem Urteil (Az.: 324 O 461/25) entschieden, auf das die Arbeitsgemeinschaft IT-Recht im Deutschen Anwaltverein (DAV) hinweist.

In dem Fall ging es um den KI-Chatbot Grok auf der Kurznachrichten-Plattform X (ehemals Twitter). Ein Nutzer hatte Grok nach Institutionen gefragt, die stark von staatlicher Förderung abhängen. Die KI generierte daraufhin eine Liste, in der explizit auch ein deutscher Verein genannt wurde. Der Chatbot behauptete etwa, dass der Verein hohe Bundesmittel erhalte und verwies dabei auch auf angebliche Quellen.

KI-Halluzinationen lässt Gericht nicht als Ausrede gelten

Tatsächlich erhielt der Verein jedoch keinerlei staatliche Gelder. Da die Antworten des Chatbots unmittelbar für alle Nutzer öffentlich sichtbar waren, sah der Verein sein Persönlichkeitsrecht verletzt und forderte die Unterlassung dieser Behauptung. Der Betreiber wehrte sich mit dem Argument, es handele sich um eine technisch bedingte Fehlleistung der KI, eine sogenannte Halluzination.

Das Landgericht Hamburg gab dem Verein recht. In den Urteilsgründen hieß es, dass der Durchschnittsnutzer KI-generierte Antworten als Tatsachenbehauptungen wahrnehme, insbesondere, wenn der Betreiber damit werbe, dass das System „faktenbasierte“ Aussagen erstelle. Die Tatsache, dass der Inhalt von einer Maschine generiert wurde, ändere nichts an der rechtlichen Unzulässigkeit der Darstellung.

Ungeprüft veröffentlichen lassen heißt sich haftbar machen

Der Betreiber müsse sich den Output „zu eigen machen“, da er das System so konfiguriert hat, dass die Ergebnisse ungeprüft direkt veröffentlicht würden. Damit hafte der Betreiber nach den Grundsätzen der Störerhaftung für die Verletzung des Vereinspersönlichkeitsrechts. Die Richter untersagten X, die Behauptung weiterzuverbreiten.

Betroffene können also in einem solchen Fall Unterlassung verlangen, selbst wenn der beanstandete Inhalt nicht von einem Menschen, sondern von einer KI stammt, erklärt der DAV. 

Betreiber von KI-Chatbots müssen für unwahre Tatsachenbehauptungen einstehen, die ihre Systeme generieren und öffentlich zugänglich machen. Dabei spiele es rechtlich keine Rolle, ob eine Falschaussage von einem Menschen verfasst oder von einer künstlichen Intelligenz „erfunden“ (halluziniert) wurde.

© dpa-infocom, dpa:260311-930-804246/1


Von dpa
north