AI Overviews‘ „Diffamierung“ könnte Google auf die Anklagebank bringen
Der Fall wurde soeben an ein US-Bundesgericht verwiesen.
Google ist nicht mehr nur eine Suchmaschine. Seitdem Google die Funktion „KI-Übersicht“ integriert hat, ist es auch KI-basierter Chatbot, der die Fragen der Nutzer beantwortet, ohne auf Links zu klicken. Das Problem ist, dass die zugrundeliegenden Technologien, die großen Sprachmodelle, mit Wahrscheinlichkeiten arbeiten, so dass sie dazu neigen, Antworten zu erfinden, wenn sie nicht ganz sicher sind, wie sie antworten sollen.
Wahrscheinliche Lüge. Diesmal könnte eine erfundene Antwort von AI Overviews Google letztendlich auf die Anklagebank bringen. Der Kläger ist Wolf River Electric, ein Solarenergieunternehmen in Minnesota. Und der Ursprung der Klage, so seltsam es auch klingen mag, ist eine Klage, die nie eingereicht wurde.
Nach Angaben der Anwälte des Stromversorgers ergab eine Google-Suche nach den Begriffen „Wolf River Electric lawsuit“ folgende Treffer AI zu einer verleumderischen Antwort . Sie zitieren einen Fall, in dem AI Overviews darauf antwortete, dass der Generalstaatsanwalt von Minnesota Klage gegen Wolf River Electric wegen „betrügerischer Verkaufspraktiken“ eingereicht hatte, wie z. B. Lügen gegenüber Kunden über die Höhe der Einsparungen und Betrug an Hausbesitzern, indem sie gezwungen wurden, Verträge mit versteckten Gebühren zu unterzeichnen.
AI präsentierte den Fall selbstbewusst und nannte vier Führungskräfte des Unternehmens, Justin Nilsen, Vladimir Marchenko, Luke Bozek und Jonathan Latcham, und zeigte sogar ein Foto von Nilsen zusammen mit den falschen Behauptungen. AI führte vier Quellen an, um seine Behauptungen zu untermauern: drei Zeitungsartikel und eine Erklärung des Generalstaatsanwalts. In keinem der Artikel wurde jedoch die Klage gegen Wolf River Electric erwähnt.
Dies ist nicht das erste Mal. Diese Art von Fehler wird als „Halluzination“ bezeichnet„und ist bei Sprachmodellen sehr verbreitet, weil sie ihre Antwort konstruieren und die folgenden Wörter vorhersagen, manchmal sie formen den ursprünglichen Fehler um in eine plausible Lüge mit allerlei erfundenen Abschweifungen, wie bei einem Telefonspiel.
Als Google anfing, KI Overview in seine Suchmaschine zu integrieren, musste es diese aus einigen Suchanfragen entfernen, insbesondere in den Rubriken Rezepte und Ernährung, weil sie Folgendes empfahl Pizzakleber hinzufügen oder einen Stein pro Tag zu essen, um gesund zu bleiben.
Eine Antwort auf diese Frage. Wolf River Electric berichtet, dass mehrere Kunden Verträge im Wert von bis zu 150.000 Dollar aufgrund der in den KI-Bewertungen gelesenen Informationen gekündigt haben. Das Problem ist, dass die Antworten in den KI-Bewertungen personalisiert sind – sie werden im laufenden Betrieb angezeigt – und können daher von Frage zu Frage variieren.
Die Anwälte von Wolf River Electric stört das nicht, denn sie wissen, dass so etwas wieder passieren kann. „Bei dieser Klage geht es nicht nur darum, den Ruf unseres Unternehmens zu schützen, sondern auch um den Schutz von Gerechtigkeit, Wahrheit und Verantwortlichkeit im Zeitalter der künstlichen Intelligenz“. sagt Nicholas Kasprowicz , der Chefsyndikus des Unternehmens.
David gegen Goliath. Der Fall wurde im März vor einem einzelstaatlichen Gericht verhandelt und jetzt an ein Bundesgericht in den USA verwiesen. Er könnte letztlich einen Präzedenzfall für die Frage schaffen, ob ein Technologieunternehmen für die Erzeugung und Verbreitung von Fehlinformationen durch seine KI haftbar ist. Die Antwort auf diese Frage könnte ein Wendepunkt für KI-Unternehmen sein, die lange versucht haben, sich der Verantwortung für die Ergebnisse ihrer Sprachmodelle zu entziehen.
Zu seiner Verteidigung bezeichnete Google den Vorfall als harmlos. „Die große Mehrheit unserer KI-Bewertungen ist genau und nützlich, aber wie bei jeder neuen Technologie können Fehler passieren. erklärte ein Vertreter des Unternehmens. Google hat nach eigenen Angaben schnell auf das Problem reagiert, sobald es ihm bekannt wurde, in Übereinstimmung mit jüngsten Bemühungen um den Benutzern die Möglichkeit zu geben, KI-Fehler zu beheben.