Quantcast
Aktuelles
Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

PC & Internet Falsche Verdächtigung: ChatGPT beschuldigt Professor der sexuellen Belästigung

ChatGPT kann wichtige Fakten mit großem Geschick verdrehen und führt sogar einen gefälschten Artikel als Beweis an. Das musste ein Juraprofessor erfahren.

Ein Skandal um ChatGPT und seine Anschuldigung der sexuellen Belästigung gegen den Juraprofessor Jonathan Turley hat die potenziellen Fallstricke beim Einsatz von KI-Chatbots zur Generierung von Informationen aufgezeigt, wie die Washington Post berichtet.

Im Rahmen einer Forschungsstudie hatte ein Anwaltskollege in Kalifornien ChatGPT gebeten, eine Liste von Juristen zu erstellen, die jemanden sexuell belästigt hatten. Turleys Name wurde in der Liste aufgeführt, und ChatGPT behauptete, dass Turley während einer Klassenfahrt nach Alaska sexuell anzügliche Bemerkungen gemacht und versucht habe, eine Studentin zu berühren, und berief sich dabei auf einen Artikel in der Washington Post vom März 2018 als Quelle der Informationen.

Es stellte sich jedoch heraus, dass ein solcher Artikel nicht existierte, es nie eine Klassenfahrt nach Alaska gegeben hatte und Turley bestritt, jemals eine Schülerin belästigt zu haben.

KI-Chatbots schöpfen aus einem riesigen Pool von Online-Inhalten, die oft aus Quellen wie Wikipedia und Reddit stammen, um plausibel klingende Antworten auf fast jede Frage zusammenzustellen. Doch nur weil sie gut vorhersagen können, welche Wörter wahrscheinlich zusammen vorkommen, heißt das nicht, dass die daraus resultierenden Sätze immer wahr sind.

Wer ist verantwortlich, wenn sich eine KI verselbstständigt?

Kate Crawford, Professorin an der University of Southern California in Annenberg und leitende Forscherin bei Microsoft Research, hat gegenüber der Washington Post vor den Gefahren von KI-Chatbots gewarnt: "Da diese Systeme so selbstbewusst antworten, ist es sehr verführerisch anzunehmen, dass sie alles können, und es ist sehr schwierig, zwischen Fakten und Unwahrheiten zu unterscheiden."

Der Vorfall hat auch die Frage aufgeworfen, wer verantwortlich ist, wenn KI-Chatbots ungenaue Informationen erzeugen oder verbreiten. Eugene Volokh, Juraprofessor an der University of California in Los Angeles, führte die Studie durch, in der Turley genannt wurde, berichtet die Washington Post. Volokh sagte der Zeitung, dass die steigende Popularität von Chatbots ein entscheidender Grund dafür sei, dass dringend geklärt werden müsse, wer verantwortlich sei, wenn die KI-Chatbots falsche Informationen verbreiteten.

Du musst Regestriert sein, um das angehängte Bild zusehen.


Quelle; golem
 
Es stellte sich jedoch heraus, dass ein solcher Artikel nicht existierte, es nie eine Klassenfahrt nach Alaska gegeben hatte und Turley bestritt, jemals eine Schülerin belästigt zu haben.

KI-Chatbots schöpfen aus einem riesigen Pool von Online-Inhalten, die oft aus Quellen wie Wikipedia und Reddit stammen, um plausibel klingende Antworten auf fast jede Frage zusammenzustellen. Doch nur weil sie gut vorhersagen können, welche Wörter wahrscheinlich zusammen vorkommen, heißt das nicht, dass die daraus resultierenden Sätze immer wahr sind.
""Nie eine Klassenfahrt gegeben......heisst das nicht,das die daraus resultierenden Sätze immer wahr sind"".....HAMMER
 
und wer sagt, dass die oben genannte Quelle hier überhaupt recht hat?
Hat auch einer mal das überprüft.? Leute es ist wurscht wer was schreibt, ein paar glauben es eh immer ;)

Es ist wie immer, kaum gibt was Neues was den Leuten Angst macht, weil sie es nicht verstehen und schon stehen die ersten mit Mistgabel und Fackel bereit im Namen des "Guten" dagegen vorzugehen.
Kommt mir irgendwie bekannt vor.
Ob was gut oder schlecht ist, ist nie 100% einzuordnen und hier hängt es von der Masse ab, was daraus gemacht wird.
 
Zuletzt bearbeitet:
War bei Alexa am Anfang auch viel Schlagzeilen,Hat sich aber bei vielen trotzdem durchgesetzt.
Was gelogen( hässliche wort) ich bevorzuge * Mit Warheit Sparsam umgegangen * oder warheit ist,müssen wir Offizielle Quelle nennen,die sind Unabhängig und nicht Käuflich, sagt man zu uns:).
Aber was KI betrifft,es wird sich durchsetzen, und wenn wir Wände hoch laufen, weil es einfach Geld ,und Arbeitskräfte spart.
 
Zuletzt bearbeitet von einem Moderator:
Die nächste Stufe sind dann Deep Fake Videos die kein Profi mehr von echten unterscheiden kann. Die Wahrheit und Schauspielerei stehen dann auf wackligen Beinen.
 
Was ist Wahrheit?
In der Physik lässt sich das noch berechnen, bei allen anderen Dingen ist das eben oft nur der eigene Standpunkt, der einem das beurteilen lässt und somit muss das nicht für alle die Wahrheit sein.
Das ist eben die Natur des Menschen, Ding einzuordnen.
 
Wenn du so "Wahrheit" definierst, dann würde ich das eher als "Meinung" betiteln.
Bei Wahrheit spricht man über nachweisbare Sachverhalte und Tatsachen.
 
.... wie im 1. Beitrag??
Niemand weiß dann, ob Wahrheit oder Fake.
Man muss sich jetzt nur mal in die Lage dieses Professors versetzen....

Gesendet von meinem SM-A515F mit Tapatalk
 
Das Problem bei der Ki ist,das Sie lernen muss ,zu Lügen, sonst währe Sie ja politisch inkorrekt. Das ist aber deutlich schwieriger als mit realen Fakten zu agieren.
Leider basiert unsere Gesellschaft mehr auf Glauben als auf Wissenschaft, nun bring einer Ki mal widersprüchlichen Glauben bei ,viel Spaß.
Das ist auch die Hauptgefahr der Ki ,das Sie die Lügen unserer Gesellschaft offenlegt. Fragt Chat gpt mal nach Klimafakten ,wie den steigenden Meeresspiegel ,echt lustig ,wie sie sich im Lügengesinst verheddert .
 
.... wie im 1. Beitrag??
Niemand weiß dann, ob Wahrheit oder Fake.
Man muss sich jetzt nur mal in die Lage dieses Professors versetzen....

Gesendet von meinem SM-A515F mit Tapatalk

Wenn das stimmt was die Meldung aussagt, dann konnte der Professor ja glaubhaft das ganze widerlegen. Sprich, es ist eine nachweisbare Sachlage, dass der Verdacht unbegründet ist.

Das dumme dabei ist, man kommt unschuldig in eine Verdachtslage und muss auch noch selbst Beweisen, dass es nicht so war oder ist. Alles nur weil eine KI einen Text raushaut.
 
Wenn du so "Wahrheit" definierst, dann würde ich das eher als "Meinung" betiteln.
Bei Wahrheit spricht man über nachweisbare Sachverhalte und Tatsachen.
Meinung wird zur Wahrheit, wenn sie keiner widerlegt. Gabs in der Geschichte ja schon öfter und wird, teils sogar trotz widerlegter Tatsachen immer noch als Wahrheit verkauft ;)
Bei ner Lüge ist es noch lustiger. Ist ne Geschichte eine Lüge, nur weil sie nicht wahr ist?

Zum Thema zurück und was ich damit sagen wollte.
Eine KI wird erst zur Gefahr, wenn sie bewusst lügt, das setzt aber ein Bewusstsein voraus, dann wirds aber wirklich wie im Film.
 
Welcher Ergebnisse das KI ausspuckt bestimmt ei Algorithmus und wer bestimmt den Algorithmus?
Für mich ein Werkzeug mehr um unsere Meinung und Verhalten in eine bestimmte Richtung zu bewegen.
 
Zurück
Oben