OpenAI hat angekündigt, Chats mit ChatGPT in bestimmten Situationen von einem Team überprüfen zu lassen.
Das betrifft vor allem Fälle, in denen Nutzer sich selbst oder anderen schaden könnten.
Wenn dabei eine akute Gefahr für andere erkannt wird, sollen die Behörden informiert werden.
Der Grund: Je länger ein Gespräch läuft, desto eher können die eingebauten Sicherheitsmechanismen nachlassen.
So verweist ChatGPT zwar zunächst auf Hilfsangebote, kann bei langen Chats aber fehlerhafte Antworten geben.
Künftig möchte OpenAI deshalb stärkere Schutzmaßnahmen einbauen und sogar ein Netzwerk aus Fachleuten schaffen, die direkt über ChatGPT erreichbar sind.
Auch Funktionen wie eine schnelle Nachricht an Angehörige oder in sehr ernsten Fällen, eine automatische Benachrichtigung durch ChatGPT selbst, werden geprüft.
In den USA und Europa verweist ChatGPT bereits auf lokale Hilfsangebote.
Die Weitergabe an Behörden erfolgt laut OpenAI nur dann, wenn akute Gewalt gegen andere droht, aber nicht bei Fällen von Selbstverletzung.
Du musst Regestriert sein, um das angehängte Bild zusehen.
Das betrifft vor allem Fälle, in denen Nutzer sich selbst oder anderen schaden könnten.
Wenn dabei eine akute Gefahr für andere erkannt wird, sollen die Behörden informiert werden.
Der Grund: Je länger ein Gespräch läuft, desto eher können die eingebauten Sicherheitsmechanismen nachlassen.
So verweist ChatGPT zwar zunächst auf Hilfsangebote, kann bei langen Chats aber fehlerhafte Antworten geben.
Künftig möchte OpenAI deshalb stärkere Schutzmaßnahmen einbauen und sogar ein Netzwerk aus Fachleuten schaffen, die direkt über ChatGPT erreichbar sind.
Auch Funktionen wie eine schnelle Nachricht an Angehörige oder in sehr ernsten Fällen, eine automatische Benachrichtigung durch ChatGPT selbst, werden geprüft.
In den USA und Europa verweist ChatGPT bereits auf lokale Hilfsangebote.
Die Weitergabe an Behörden erfolgt laut OpenAI nur dann, wenn akute Gewalt gegen andere droht, aber nicht bei Fällen von Selbstverletzung.