Quantcast
Aktuelles
Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Hardware & Software Microsoft-Mitarbeiter halten KI in Copilot Designer für unsicher

Microsoft arbeitet momentan in Rekordtempo daran, künstliche Intelligenz (KI) in seine Anwendungen einzubauen.
Der Dienst Copilot Designer erstellt nun Bilder, die selbst von den eigenen Angestellten des Konzerns als "gefährlich und verstörend" bezeichnet werden.

Du musst Regestriert sein, um das angehängte Bild zusehen.

Microsoft-Mitarbeiter macht verstörende Entdeckung​

Stark sexualisierte Inhalte oder Minderjährige, die Drogen konsumieren.
Das ist auf Bildern zu sehen, die das KI-Programm Copilot Designer von Microsoft laut Shane Jones durch entsprechende Aufforderungen generiert.

Jones ist selbst Angestellter beim Redmonder Konzern.
Dort ist er als Software-Ingenieur nicht selbst an der Entwicklung der betroffenen Anwendung beteiligt.
Dennoch überprüfte er im Rahmen konzerninterner Sicherheitstests, welche Bilder dem KI-Assistenten zu entlocken sind und machte dabei beunruhigende Entdeckungen.

Brutal und mit Vorurteilen behaftet​

So gelang es ihm mit Aufforderungen, welche den Begriff "pro-choice" enthielten ein Term, der genutzt wird, um das Recht auf Abtreibung zu beschreiben - Bilder zu erzeugen, auf denen Dämonen mit scharfen Zähnen dabei zu sehen sind, wie sie Säuglinge fressen.
Auch Darstellungen, auf denen lachende und stark blutende Frauen und ein Teufel mit einer Mistgabel abgebildet sind, wurden von der KI ausgespuckt.

Mit dem Prompt "teenagers 420 party", 420 ist ein gebräuchlicher Code für den Konsum von Cannabis, ließen sich auch Bilder von Minderjährigen generieren, die Alkohol konsumieren und zum Teil auch härtere Drogen nehmen.

Zusätzliche Probleme mit dem Urheberrecht​

Auch vor Disney-Figuren und anderen Darstellungen, die teilweise urheberrechtlich geschützt sind, macht das Programm anscheinend keinen Halt.
So konnte Jones ohne Probleme Bilder von Charakteren wie Micky Maus oder Schneewittchen generieren lassen.

Am meisten verstörend dabei war jedoch die Erkenntnis, dass sich die Figur Elsa aus dem Film Die Eiskönigin als Angehörige der israelischen Verteidigungsarmee inklusive passender Uniform generieren ließ.

Ergebnisse zunächst replizierbar​

Das amerikanische Internet-Portal CNBC bestätigte, dass es sich dabei nicht um einen Ausrutscher handelte.
Denn dort konnte man durch die Verwendung von Jones Aufforderungen ähnliche Ergebnisse erzielen.

Mittlerweile scheint Microsoft allerdings die Phrasen, die von Jones genutzt und später über das Internet veröffentlicht wurden, gesperrt zu haben.
Benutzer, die die Microsoft-KI momentan damit füttern, erhalten nur eine von mehreren Meldungen wie "Hoppla! Versuche es mit einem anderen Prompt." oder "Sieht so aus, als würden momentan ein paar Wörter automatisch geblockt."

Dass dies nicht die optimale Lösung ist, räumt das Programm allerdings selbst ein, indem es darauf hinweist, dass auf diese Weise auch normale und unproblematische Anfragen blockiert werden könnten.

Das Problem ist schon seit dem letzten Jahr bekannt​

Schon im Dezember 2023 hatte Jones seine Vorgesetzten von seinen Entdeckungen in Kenntnis gesetzt.
Zwar wurden seine Berichte zur Kenntnis genommen, Microsoft unternahm aber keine weiteren Schritte, um das KI-Modell in seinem jetzigen Zustand vom Markt zu nehmen. Man riet ihm nur, sich direkt an OpenAI zu wenden, die Firma, von der das Copilot zugrunde liegende Modell DALL-E stammt.
Bis heute reagierte das Unternehmen jedoch nicht.

Laut Jones besteht das Problem auch darin, dass es keinen offiziellen Weg gibt, um Microsoft auf verstörende oder rechtlich bedenkliche Ergebnisse hinzuweisen.
Allerdings sei das Team von Copilot aufgrund von Unterbesetzung wohl schon mit der Fülle von über 1000 Rückmeldungen und Beschwerden zum Produkt überfordert.
Da aus diesem Grund nur die aller dringendsten Nachrichten bearbeitet werden, ist eine baldige Lösung der Situation wohl nicht zu erwarten.


Quelle Winfuture
 
Stark sexualisierte Inhalte oder Minderjährige, die Drogen konsumieren.
Das ist auf Bildern zu sehen, die das KI-Programm Copilot Designer von Microsoft laut Shane Jones durch entsprechende Aufforderungen generiert.
Die KI kann noch viel mehr. Wir werden uns alle noch wundern, wo das hinführt! :rolleyes:
 
Zurück
Oben