Markt

KI könnte wegen Verleumdung und Produkthaftung mit Klagen konfrontiert werden, warnen Wissenschaftler

[ad_1]

Künstliche Intelligenz, die beschuldigt wird, Menschen online falsch zu zitieren und zu diffamieren, könnte aufgrund der von ihr ausgegebenen falschen Informationen mit einem Rechtsstreit konfrontiert werden, warnen Rechtsexperten.

Aber die Gelehrten sind sich uneinig darüber, ob die Bots nach dem Gesetz der Verleumdung oder dem Gesetz der Produkthaftung verklagt werden sollten, da es sich um eine Maschine handelt – nicht um eine Person – die falsche, verletzende Informationen über Menschen verbreitet.

„Das ist definitiv Neuland“, sagte Catherine Sharkey, Professorin an der New York University School of Law. „Menschen interagieren mit Maschinen. Das ist ganz neu. Wie funktioniert die Veröffentlichung in diesem Rahmen?“

Brian Hood, ein Bürgermeister in einem Gebiet nordwestlich von Melbourne, Australien, droht damit, ChatGPT von OpenAI zu verklagen, der fälschlicherweise angibt, er sei eines Bestechungsskandals im Ausland schuldig.

Die falschen Anschuldigungen seien Anfang der 2000er Jahre bei der Reserve Bank of Australia aufgetreten.

Laut der Nachrichtenagentur Reuters schrieben die Anwälte von Mr. Hood einen Brief an OpenAI, das ChatGPT erstellt hat, und forderten das Unternehmen auf, die Fehler innerhalb von 28 Tagen zu beheben. Wenn nicht, plant er, den möglicherweise ersten Verleumdungsfall gegen künstliche Intelligenz zu verklagen.

Mr. Hood ist nicht der Einzige, der von ChatGPT mit einer falschen Anschuldigung gegen sich konfrontiert wird.

Jonathan Turley, Juraprofessor an der George Washington University, wurde darüber informiert, dass der Bot falsche Informationen verbreitet, dass er wegen einer Klassenfahrt nach Alaska wegen sexueller Belästigung angeklagt wurde. Der Bot sagte auch, er sei Professor an der Georgetown University, nicht an der George Washington University.

„Ich habe erfahren, dass ChatGPT fälschlicherweise über eine Behauptung wegen sexueller Belästigung berichtet hat, die nie gegen mich auf einer Reise erhoben wurde, die nie stattgefunden hat, als ich an einer Fakultät war, an der ich nie unterrichtet habe. ChapGPT stützte sich auf einen zitierten Post-Artikel, der nie geschrieben wurde, und zitiert eine Aussage, die nie von der Zeitung gemacht wurde“, twitterte Herr Turley am 6. April.

Die Washington Post berichtete am 5. April, dass kein solcher Artikel existiert.

Open AI reagierte nicht sofort auf eine Bitte um Stellungnahme.

Weder Googles Bard noch Microsofts Bing, beide ähnlich wie ChatGPT, über das Potenzial für Fehler und daraus resultierende Klagen.

Eugene Volokh, Juraprofessor an der UCLA, führte die Untersuchungen durch, die zu den falschen Anschuldigungen gegen Herrn Turley führten.

Er sagte der Washington Times, es sei möglich, dass OpenAI wegen der falschen Informationen mit einer Klage wegen Verleumdung konfrontiert werden könnte, insbesondere im Fall des australischen Bürgermeisters, der das Unternehmen auf den Fehler aufmerksam gemacht hat.

Um die Verleumdung einer Persönlichkeit des öffentlichen Lebens zu beweisen, muss man in der Regel nachweisen, dass die Person, die die falschen Informationen veröffentlicht, dies mit tatsächlicher Bosheit oder rücksichtsloser Missachtung der Wahrheit getan hat.

Herr Volokh sagte, die Benachrichtigung des Unternehmens über den Fehler lege die Absicht dar, die zum Nachweis der Verleumdung erforderlich sei.

„So zeigt man wirkliche Bosheit“, sagte er. „Sie verbreiten immer wieder eine bestimmte Aussage, obwohl sie wissen, dass sie falsch ist. Sie lassen zu, dass ihre Software weiterhin eine bestimmte Aussage verbreitet, obwohl sie wissen, dass sie falsch ist.“

Er verwies auf den eigenen technischen Bericht des Unternehmens vom März, in dem festgestellt wurde, dass die „Halluzinationen“ gefährlich werden könnten.

„GPT-4 hat die Tendenz zu ‚halluzinieren’, dh ‚Inhalte zu produzieren, die in Bezug auf bestimmte Quellen unsinnig oder unwahr sind’“, heißt es in dem Bericht auf Seite 46. „Diese Tendenz kann besonders schädlich sein, da Modelle immer überzeugender und glaubwürdiger werden , was dazu führt, dass sich die Benutzer zu sehr darauf verlassen.“

Ms. Sharkey sagte jedoch, es sei schwierig, eine Maschine wegen Verleumdung anzuklagen, da es sich nicht um eine Person handele, die den Inhalt veröffentliche, sondern um ein Produkt.

„Die Idee, einer Maschine Böswilligkeit oder Absicht zu unterstellen – meiner Ansicht nach sind wir dafür noch nicht bereit“, sagte sie. „Was es wirklich zeigt, ist … die Zukunft hier wird darin bestehen, Produkthaftungsansprüche geltend zu machen.“

Sie sagte, Kläger könnten möglicherweise Unternehmen wegen fehlerhafter oder fahrlässiger Designs verfolgen, die dazu führen, dass Algorithmen schädliche Informationen herausgeben und den Ruf in Frage stellen.

Robert Post, Professor an der Yale Law School, sagte, all dies sei neu und müsse durch Klagen vor Gericht geprüft werden – oder der Gesetzgeber müsse das Problem mit einem Gesetz angehen.

„Es gibt Klagen. Richter treffen Entscheidungen in verschiedenen Bundesstaaten, und allmählich ändert sich das Gesetz und kommt zu einem Abschluss“, sagte er. “Das ist alles noch nicht entschieden.”



[ad_2]

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button