ChatGPT kann wichtige Fakten mit großem Geschick verdrehen und führt sogar einen gefälschten Artikel als Beweis an. Das musste ein Juraprofessor erfahren.
Ein Skandal um ChatGPT und seine Anschuldigung der sexuellen Belästigung gegen den Juraprofessor Jonathan Turley hat die potenziellen Fallstricke beim Einsatz von KI-Chatbots zur Generierung von Informationen aufgezeigt, wie die Washington Post berichtet.
Im Rahmen einer Forschungsstudie hatte ein Anwaltskollege in Kalifornien ChatGPT gebeten, eine Liste von Juristen zu erstellen, die jemanden sexuell belästigt hatten. Turleys Name wurde in der Liste aufgeführt, und ChatGPT behauptete, dass Turley während einer Klassenfahrt nach Alaska sexuell anzügliche Bemerkungen gemacht und versucht habe, eine Studentin zu berühren, und berief sich dabei auf einen Artikel in der Washington Post vom März 2018 als Quelle der Informationen.
Es stellte sich jedoch heraus, dass ein solcher Artikel nicht existierte, es nie eine Klassenfahrt nach Alaska gegeben hatte und Turley bestritt, jemals eine Schülerin belästigt zu haben.
KI-Chatbots schöpfen aus einem riesigen Pool von Online-Inhalten, die oft aus Quellen wie Wikipedia und Reddit stammen, um plausibel klingende Antworten auf fast jede Frage zusammenzustellen. Doch nur weil sie gut vorhersagen können, welche Wörter wahrscheinlich zusammen vorkommen, heißt das nicht, dass die daraus resultierenden Sätze immer wahr sind.
Wer ist verantwortlich, wenn sich eine KI verselbstständigt?
Kate Crawford, Professorin an der University of Southern California in Annenberg und leitende Forscherin bei Microsoft Research, hat gegenüber der Washington Post vor den Gefahren von KI-Chatbots gewarnt: "Da diese Systeme so selbstbewusst antworten, ist es sehr verführerisch anzunehmen, dass sie alles können, und es ist sehr schwierig, zwischen Fakten und Unwahrheiten zu unterscheiden."
Der Vorfall hat auch die Frage aufgeworfen, wer verantwortlich ist, wenn KI-Chatbots ungenaue Informationen erzeugen oder verbreiten. Eugene Volokh, Juraprofessor an der University of California in Los Angeles, führte die Studie durch, in der Turley genannt wurde, berichtet die Washington Post. Volokh sagte der Zeitung, dass die steigende Popularität von Chatbots ein entscheidender Grund dafür sei, dass dringend geklärt werden müsse, wer verantwortlich sei, wenn die KI-Chatbots falsche Informationen verbreiteten.
Quelle; golem
Ein Skandal um ChatGPT und seine Anschuldigung der sexuellen Belästigung gegen den Juraprofessor Jonathan Turley hat die potenziellen Fallstricke beim Einsatz von KI-Chatbots zur Generierung von Informationen aufgezeigt, wie die Washington Post berichtet.
Im Rahmen einer Forschungsstudie hatte ein Anwaltskollege in Kalifornien ChatGPT gebeten, eine Liste von Juristen zu erstellen, die jemanden sexuell belästigt hatten. Turleys Name wurde in der Liste aufgeführt, und ChatGPT behauptete, dass Turley während einer Klassenfahrt nach Alaska sexuell anzügliche Bemerkungen gemacht und versucht habe, eine Studentin zu berühren, und berief sich dabei auf einen Artikel in der Washington Post vom März 2018 als Quelle der Informationen.
Es stellte sich jedoch heraus, dass ein solcher Artikel nicht existierte, es nie eine Klassenfahrt nach Alaska gegeben hatte und Turley bestritt, jemals eine Schülerin belästigt zu haben.
KI-Chatbots schöpfen aus einem riesigen Pool von Online-Inhalten, die oft aus Quellen wie Wikipedia und Reddit stammen, um plausibel klingende Antworten auf fast jede Frage zusammenzustellen. Doch nur weil sie gut vorhersagen können, welche Wörter wahrscheinlich zusammen vorkommen, heißt das nicht, dass die daraus resultierenden Sätze immer wahr sind.
Wer ist verantwortlich, wenn sich eine KI verselbstständigt?
Kate Crawford, Professorin an der University of Southern California in Annenberg und leitende Forscherin bei Microsoft Research, hat gegenüber der Washington Post vor den Gefahren von KI-Chatbots gewarnt: "Da diese Systeme so selbstbewusst antworten, ist es sehr verführerisch anzunehmen, dass sie alles können, und es ist sehr schwierig, zwischen Fakten und Unwahrheiten zu unterscheiden."
Der Vorfall hat auch die Frage aufgeworfen, wer verantwortlich ist, wenn KI-Chatbots ungenaue Informationen erzeugen oder verbreiten. Eugene Volokh, Juraprofessor an der University of California in Los Angeles, führte die Studie durch, in der Turley genannt wurde, berichtet die Washington Post. Volokh sagte der Zeitung, dass die steigende Popularität von Chatbots ein entscheidender Grund dafür sei, dass dringend geklärt werden müsse, wer verantwortlich sei, wenn die KI-Chatbots falsche Informationen verbreiteten.
Du musst Regestriert sein, um das angehängte Bild zusehen.
Quelle; golem