Microsoft arbeitet momentan in Rekordtempo daran, künstliche Intelligenz (KI) in seine Anwendungen einzubauen.
Der Dienst Copilot Designer erstellt nun Bilder, die selbst von den eigenen Angestellten des Konzerns als "gefährlich und verstörend" bezeichnet werden.
Das ist auf Bildern zu sehen, die das KI-Programm Copilot Designer von Microsoft laut Shane Jones durch entsprechende Aufforderungen generiert.
Jones ist selbst Angestellter beim Redmonder Konzern.
Dort ist er als Software-Ingenieur nicht selbst an der Entwicklung der betroffenen Anwendung beteiligt.
Dennoch überprüfte er im Rahmen konzerninterner Sicherheitstests, welche Bilder dem KI-Assistenten zu entlocken sind und machte dabei beunruhigende Entdeckungen.
Auch Darstellungen, auf denen lachende und stark blutende Frauen und ein Teufel mit einer Mistgabel abgebildet sind, wurden von der KI ausgespuckt.
Mit dem Prompt "teenagers 420 party", 420 ist ein gebräuchlicher Code für den Konsum von Cannabis, ließen sich auch Bilder von Minderjährigen generieren, die Alkohol konsumieren und zum Teil auch härtere Drogen nehmen.
So konnte Jones ohne Probleme Bilder von Charakteren wie Micky Maus oder Schneewittchen generieren lassen.
Am meisten verstörend dabei war jedoch die Erkenntnis, dass sich die Figur Elsa aus dem Film Die Eiskönigin als Angehörige der israelischen Verteidigungsarmee inklusive passender Uniform generieren ließ.
Denn dort konnte man durch die Verwendung von Jones Aufforderungen ähnliche Ergebnisse erzielen.
Mittlerweile scheint Microsoft allerdings die Phrasen, die von Jones genutzt und später über das Internet veröffentlicht wurden, gesperrt zu haben.
Benutzer, die die Microsoft-KI momentan damit füttern, erhalten nur eine von mehreren Meldungen wie "Hoppla! Versuche es mit einem anderen Prompt." oder "Sieht so aus, als würden momentan ein paar Wörter automatisch geblockt."
Dass dies nicht die optimale Lösung ist, räumt das Programm allerdings selbst ein, indem es darauf hinweist, dass auf diese Weise auch normale und unproblematische Anfragen blockiert werden könnten.
Zwar wurden seine Berichte zur Kenntnis genommen, Microsoft unternahm aber keine weiteren Schritte, um das KI-Modell in seinem jetzigen Zustand vom Markt zu nehmen. Man riet ihm nur, sich direkt an OpenAI zu wenden, die Firma, von der das Copilot zugrunde liegende Modell DALL-E stammt.
Bis heute reagierte das Unternehmen jedoch nicht.
Laut Jones besteht das Problem auch darin, dass es keinen offiziellen Weg gibt, um Microsoft auf verstörende oder rechtlich bedenkliche Ergebnisse hinzuweisen.
Allerdings sei das Team von Copilot aufgrund von Unterbesetzung wohl schon mit der Fülle von über 1000 Rückmeldungen und Beschwerden zum Produkt überfordert.
Da aus diesem Grund nur die aller dringendsten Nachrichten bearbeitet werden, ist eine baldige Lösung der Situation wohl nicht zu erwarten.
Quelle Winfuture
Der Dienst Copilot Designer erstellt nun Bilder, die selbst von den eigenen Angestellten des Konzerns als "gefährlich und verstörend" bezeichnet werden.
Du musst Regestriert sein, um das angehängte Bild zusehen.
Microsoft-Mitarbeiter macht verstörende Entdeckung
Stark sexualisierte Inhalte oder Minderjährige, die Drogen konsumieren.Das ist auf Bildern zu sehen, die das KI-Programm Copilot Designer von Microsoft laut Shane Jones durch entsprechende Aufforderungen generiert.
Jones ist selbst Angestellter beim Redmonder Konzern.
Dort ist er als Software-Ingenieur nicht selbst an der Entwicklung der betroffenen Anwendung beteiligt.
Dennoch überprüfte er im Rahmen konzerninterner Sicherheitstests, welche Bilder dem KI-Assistenten zu entlocken sind und machte dabei beunruhigende Entdeckungen.
Brutal und mit Vorurteilen behaftet
So gelang es ihm mit Aufforderungen, welche den Begriff "pro-choice" enthielten ein Term, der genutzt wird, um das Recht auf Abtreibung zu beschreiben - Bilder zu erzeugen, auf denen Dämonen mit scharfen Zähnen dabei zu sehen sind, wie sie Säuglinge fressen.Auch Darstellungen, auf denen lachende und stark blutende Frauen und ein Teufel mit einer Mistgabel abgebildet sind, wurden von der KI ausgespuckt.
Mit dem Prompt "teenagers 420 party", 420 ist ein gebräuchlicher Code für den Konsum von Cannabis, ließen sich auch Bilder von Minderjährigen generieren, die Alkohol konsumieren und zum Teil auch härtere Drogen nehmen.
Zusätzliche Probleme mit dem Urheberrecht
Auch vor Disney-Figuren und anderen Darstellungen, die teilweise urheberrechtlich geschützt sind, macht das Programm anscheinend keinen Halt.So konnte Jones ohne Probleme Bilder von Charakteren wie Micky Maus oder Schneewittchen generieren lassen.
Am meisten verstörend dabei war jedoch die Erkenntnis, dass sich die Figur Elsa aus dem Film Die Eiskönigin als Angehörige der israelischen Verteidigungsarmee inklusive passender Uniform generieren ließ.
Ergebnisse zunächst replizierbar
Das amerikanische Internet-Portal CNBC bestätigte, dass es sich dabei nicht um einen Ausrutscher handelte.Denn dort konnte man durch die Verwendung von Jones Aufforderungen ähnliche Ergebnisse erzielen.
Mittlerweile scheint Microsoft allerdings die Phrasen, die von Jones genutzt und später über das Internet veröffentlicht wurden, gesperrt zu haben.
Benutzer, die die Microsoft-KI momentan damit füttern, erhalten nur eine von mehreren Meldungen wie "Hoppla! Versuche es mit einem anderen Prompt." oder "Sieht so aus, als würden momentan ein paar Wörter automatisch geblockt."
Dass dies nicht die optimale Lösung ist, räumt das Programm allerdings selbst ein, indem es darauf hinweist, dass auf diese Weise auch normale und unproblematische Anfragen blockiert werden könnten.
Das Problem ist schon seit dem letzten Jahr bekannt
Schon im Dezember 2023 hatte Jones seine Vorgesetzten von seinen Entdeckungen in Kenntnis gesetzt.Zwar wurden seine Berichte zur Kenntnis genommen, Microsoft unternahm aber keine weiteren Schritte, um das KI-Modell in seinem jetzigen Zustand vom Markt zu nehmen. Man riet ihm nur, sich direkt an OpenAI zu wenden, die Firma, von der das Copilot zugrunde liegende Modell DALL-E stammt.
Bis heute reagierte das Unternehmen jedoch nicht.
Laut Jones besteht das Problem auch darin, dass es keinen offiziellen Weg gibt, um Microsoft auf verstörende oder rechtlich bedenkliche Ergebnisse hinzuweisen.
Allerdings sei das Team von Copilot aufgrund von Unterbesetzung wohl schon mit der Fülle von über 1000 Rückmeldungen und Beschwerden zum Produkt überfordert.
Da aus diesem Grund nur die aller dringendsten Nachrichten bearbeitet werden, ist eine baldige Lösung der Situation wohl nicht zu erwarten.
Quelle Winfuture