Dies ist eine mobil optimierte Seite, die schnell lädt. Wenn Sie die Seite ohne Optimierung laden möchten, dann klicken Sie auf diesen Text.

Hardware & Software OpenAI will bei Gefahr Chatverläufe prüfen und melden

OpenAI hat angekündigt, Chats mit ChatGPT in bestimmten Situationen von einem Team überprüfen zu lassen.
Du musst Regestriert sein, um das angehängte Bild zusehen.

Das betrifft vor allem Fälle, in denen Nutzer sich selbst oder anderen schaden könnten.
Wenn dabei eine akute Gefahr für andere erkannt wird, sollen die Behörden informiert werden.

Der Grund: Je länger ein Gespräch läuft, desto eher können die eingebauten Sicherheitsmechanismen nachlassen.
So verweist ChatGPT zwar zunächst auf Hilfsangebote, kann bei langen Chats aber fehlerhafte Antworten geben.

Künftig möchte OpenAI deshalb stärkere Schutzmaßnahmen einbauen und sogar ein Netzwerk aus Fachleuten schaffen, die direkt über ChatGPT erreichbar sind.
Auch Funktionen wie eine schnelle Nachricht an Angehörige oder in sehr ernsten Fällen, eine automatische Benachrichtigung durch ChatGPT selbst, werden geprüft.

In den USA und Europa verweist ChatGPT bereits auf lokale Hilfsangebote.
Die Weitergabe an Behörden erfolgt laut OpenAI nur dann, wenn akute Gewalt gegen andere droht, aber nicht bei Fällen von Selbstverletzung.
 
Für die Nutzung dieser Website sind Cookies erforderlich. Du musst diese akzeptieren, um die Website weiter nutzen zu können. Erfahre mehr…