LG Kiel: Wirtschaftsdienst haftet für durch KI generierte Falschinformationen

LG Kiel, Urt. v. 29.02.2024 – Az.: 6 O 151/23

Hintergrund

Die Beklagte bietet online eine Webseite an, über die Wirtschaftsinformationen deutscher Firmen abrufbar sind. In einem vollautomatisierten, durch KI gestützten Verfahren werden Pflichtveröffentlichungen aus dem Bundesanzeiger, dem Handelsregister und dem Insolvenzregister analysiert. Das KI-System erstellt nach einem vorgegebenen Muster (Template) eine Liste, in dem die Daten vernetzt, übersichtlicher dargestellt und interaktiv für den Nutzer visualisiert werden. In den Nutzungsbedingungen erklärt die Beklagte:

„Sie werden durch vollständig automatisierte Analyse gewonnen, und können teils oder auch weitgehend fehlerbehaftet sein.“

Die Klägerin, ein Unternehmen, bemerkte, dass über sie falsche Informationen auf der Plattform der Beklagten angezeigt werden. Suchte man nach der Klägerin, wurde die Information angezeigt, dass das Unternehmen wegen Vermögenslosigkeit gelöscht werde. Wie sich herausstellte, handelte es sich um einen Verarbeitungsfehler. Das KI-System der Beklagten hatte die Information dem falschen Unternehmen zugeordnet.

Die Beklagte löschte den fehlerhaften Eintrag, weigerte sich jedoch, eine Unterlassungserklärung abzugeben. Sie ist der Meinung, dass es sich bei dem KI-gestützten Verfahren um einen vollautomatisierten Prozess handelt und sie daher kein persönliches Verschulden treffe.Sie hafte daher nicht für die Ergebnisse der KI.

Gerichtliche Entscheidung

Das Landgericht Kiel hatte darüber zu entscheiden, ob die Klägerin für die von ihr verbreiteten Ergebnisse der KI haftet.

Es sprach der Klägerin einen Unterlassungsanspruch gegen die Beklagte zu und bekahte die Haftung. Auch wenn der Fehler durch die KI-Software verursacht wurde, hafte die Beklagte als unmittelbare Störerin. Der Betreiber eines Portals kann schon dann als unmittelbarer Störer angesehen werden, wenn für die Nutzer erkennbar ist, dass dieser die inhaltliche Verantwortung für die Angaben übernimmt. Die Beklagte hat sich bewusst einer künstlichen Intelligenz zur Beantwortung von Suchanfragen ihrer Nutzer bedient. Deswegen könne sich die Beklagte nicht darauf berufen, dass sie an dem automatischen Vorgang der KI-Software nicht beteiligt gewesen sei.

Fazit

Die Entscheidung ist aus unserer Sicht wenig überraschend. Auch wer KI einsetzt, muss sicherstellen, dass Informationen, die man selbst verbreitet, richtig sind. Dies gilt jedenfalls, solange bei der Verbreitung irgendwie der Eindruck entstehen kann, es handele sich um Fakten. Wer KI-Ergebnisse nach außen als Fakten verbreitet, haftet für die KI-Ergebnisse.