In der neusten Beta von iOS 16 aktiviert Apple erstmals den umstrittenen Nacktbildscanner für iMessage in Deutschland. Er soll Kinder daran hindern, Nacktbilder zu senden oder zu empfangen.
Wer sich nun Sorgen macht, dass sein iPhone seine Fotos in Zukunft automatisch scannt, der darf an dieser Stelle beruhigt sein. Zumindest, wenn er Apple sein Vertrauen schenkt. Denn laut eigenen Angaben ist das Feature “off by default“. Der Benutzer muss es also explizit aktivieren.
Ursprüngliches Ziel von Apple war es, umfangreichere Anpassungen am System vorzunehmen, die die Verbreitung von Missbrauchsbildern über die eigenen Dienste eindämmen sollten. Der Nacktbildscanner war nur ein kleiner Teil davon. Denn wie wir bereits im vergangenen Jahr berichteten, ist Apple die größte Plattform für die Verbreitung von Kinderpornografie.
Apple wollte Bilder, die sexuellen Missbrauch von Kindern darstellen, automatisch erkennen und melden, sobald sie in die iCloud hochgeladen werden. Dafür sollte ein automatischer Abgleich sämtlicher Fotos auf dem iPhone mit einer Datenbank bekannter Missbrauchsbilder stattfinden.
Doch Datenschützer und Sicherheitsexperten sorgten 2021 für so viel Gegenwind, dass Apple sich entschied, die Pläne dafür vorerst auf Eis zu legen. Dennoch ist der Nacktbildscanner ein Schritt in dieselbe Richtung, der dazu führen könnte, dass die ursprünglichen Pläne früher oder später doch noch umgesetzt werden.
Quelle: tarnkappe
Wann genau der Nacktbildscanner ein Foto als Treffer erkennt, ist bisher noch unklar. Laut Apple reicht es jedoch aus, wenn auf dem Foto Genitalien sichtbar sind, um die entsprechenden Hinweise auszulösen. Die Erkennung der Inhalte erfolgt durch eine KI, die Apple beständig weiterentwickelt und durch Betriebssystem-Updates aktualisiert.
In anderen Staaten schon längst aktiv
Nach den USA, Großbritannien, Kanada, Australien und Neuseeland, will Apple seinen Nacktbildscanner nun offenbar auch für Deutschland und Frankreich freigeben. Die Aktivierung der Funktion in der aktuellen Beta von iOS 16, ist zwar noch keine Garantie dafür, dass sie es auch in die finale Version schafft. Doch die “Chancen” stehen gut, dass Apple den Nacktbildscanner im September mit der neuen iOS Version offiziell auf allen Geräten ausrollt.Wer sich nun Sorgen macht, dass sein iPhone seine Fotos in Zukunft automatisch scannt, der darf an dieser Stelle beruhigt sein. Zumindest, wenn er Apple sein Vertrauen schenkt. Denn laut eigenen Angaben ist das Feature “off by default“. Der Benutzer muss es also explizit aktivieren.
Nacktbildscanner warnt erstmal nur das Kind
Aktivieren Eltern die Funktion auf dem iPhone ihres Kindes, werden sämtliche ankommenden und versendeten Bilder auf intime Bestandteile hin überprüft. Erkennt der Nacktbildscanner ein Nacktfoto, so stellt er dieses verschleiert dar und zeigt dem Kind eine Warnmeldung an. Außerdem bietet es dem Kind die Option an, eine erwachsene Person zu benachrichtigen. Obwohl Apple zuvor eine automatische Benachrichtigung der Eltern eingeplant hatte, wurde dieses Feature nach heftiger Kritik vorerst wieder gestrichen.Ursprüngliches Ziel von Apple war es, umfangreichere Anpassungen am System vorzunehmen, die die Verbreitung von Missbrauchsbildern über die eigenen Dienste eindämmen sollten. Der Nacktbildscanner war nur ein kleiner Teil davon. Denn wie wir bereits im vergangenen Jahr berichteten, ist Apple die größte Plattform für die Verbreitung von Kinderpornografie.
Du musst angemeldet sein, um Bilder zu sehen.
Apple wollte Bilder, die sexuellen Missbrauch von Kindern darstellen, automatisch erkennen und melden, sobald sie in die iCloud hochgeladen werden. Dafür sollte ein automatischer Abgleich sämtlicher Fotos auf dem iPhone mit einer Datenbank bekannter Missbrauchsbilder stattfinden.
Doch Datenschützer und Sicherheitsexperten sorgten 2021 für so viel Gegenwind, dass Apple sich entschied, die Pläne dafür vorerst auf Eis zu legen. Dennoch ist der Nacktbildscanner ein Schritt in dieselbe Richtung, der dazu führen könnte, dass die ursprünglichen Pläne früher oder später doch noch umgesetzt werden.
Quelle: tarnkappe
Wann genau der Nacktbildscanner ein Foto als Treffer erkennt, ist bisher noch unklar. Laut Apple reicht es jedoch aus, wenn auf dem Foto Genitalien sichtbar sind, um die entsprechenden Hinweise auszulösen. Die Erkennung der Inhalte erfolgt durch eine KI, die Apple beständig weiterentwickelt und durch Betriebssystem-Updates aktualisiert.