Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenloses um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereiche, welche für Gäste verwehrt bleiben

Hardware & Software Nacktbildscanner von Apple kommt nach Deutschland

In der neusten Beta von iOS 16 aktiviert Apple erstmals den umstrittenen Nacktbildscanner für iMessage in Deutschland. Er soll Kinder daran hindern, Nacktbilder zu senden oder zu empfangen.

In anderen Staaten schon längst aktiv​

Nach den
Du musst dich Anmelden oder Registrieren um diesen link zusehen!
, will Apple seinen Nacktbildscanner nun offenbar auch für Deutschland und Frankreich freigeben. Die Aktivierung der Funktion in der aktuellen Beta von iOS 16, ist zwar noch keine Garantie dafür, dass sie es auch in die finale Version schafft. Doch die “Chancen” stehen gut, dass Apple den Nacktbildscanner im September mit der neuen iOS Version offiziell auf allen Geräten ausrollt.
Wer sich nun Sorgen macht, dass sein iPhone seine Fotos in Zukunft automatisch scannt, der darf an dieser Stelle beruhigt sein. Zumindest, wenn er Apple sein Vertrauen schenkt. Denn laut
Du musst dich Anmelden oder Registrieren um diesen link zusehen!
ist das Feature “off by default“. Der Benutzer muss es also explizit aktivieren.

Nacktbildscanner warnt erstmal nur das Kind​

Aktivieren Eltern die Funktion auf dem iPhone ihres Kindes, werden sämtliche ankommenden und versendeten Bilder auf intime Bestandteile hin überprüft. Erkennt der Nacktbildscanner ein Nacktfoto, so stellt er dieses verschleiert dar und zeigt dem Kind eine Warnmeldung an. Außerdem bietet es dem Kind die Option an, eine erwachsene Person zu benachrichtigen. Obwohl Apple zuvor eine automatische Benachrichtigung der Eltern eingeplant hatte, wurde dieses Feature nach heftiger Kritik vorerst wieder gestrichen.
Ursprüngliches Ziel von Apple war es, umfangreichere Anpassungen am System vorzunehmen, die die Verbreitung von Missbrauchsbildern über die eigenen Dienste eindämmen sollten. Der Nacktbildscanner war nur ein kleiner Teil davon. Denn wie wir bereits im vergangenen Jahr berichteten, ist Apple die größte Plattform für die Verbreitung von Kinderpornografie.

Du musst dich Anmelden oder Registrieren um diesen link zusehen!

Apple wollte Bilder, die sexuellen Missbrauch von Kindern darstellen, automatisch erkennen und melden, sobald sie in die iCloud hochgeladen werden. Dafür sollte ein automatischer Abgleich sämtlicher Fotos auf dem iPhone mit einer Datenbank bekannter Missbrauchsbilder stattfinden.

Doch Datenschützer und Sicherheitsexperten sorgten 2021 für so viel Gegenwind, dass Apple sich entschied, die Pläne dafür vorerst auf Eis zu legen. Dennoch ist der Nacktbildscanner ein Schritt in dieselbe Richtung, der dazu führen könnte, dass die ursprünglichen Pläne früher oder später doch noch umgesetzt werden.
Quelle: tarnkappe
Wann genau der Nacktbildscanner ein Foto als Treffer erkennt, ist bisher noch unklar. Laut Apple reicht es jedoch aus, wenn auf dem Foto Genitalien sichtbar sind, um die entsprechenden Hinweise auszulösen. Die Erkennung der Inhalte erfolgt durch eine KI, die Apple beständig weiterentwickelt und durch Betriebssystem-Updates aktualisiert.
 
Zurück
Oben