Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenloses um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereiche, welche für Gäste verwehrt bleiben

Handy - Navigation Apple: Kein lokaler CSAM-Scan gegen Kinderpornos auf iPhones mehr geplant

Apple hat das umstrittene Vorhaben begraben, auf iPhones nach illegalen Inhalten zu scannen. Der Konzern will sich auf den optionalen Nacktfilter konzentrieren.

Apple will den massiv kritisierten Plan zur lokalen Erkennung von Missbrauchsfotos auf iPhones doch nicht umsetzen. Das Unternehmen hat sich dazu entschieden, mit dem angekündigten Erkennungs-Tool für Bildmaterial, das sexuellen Missbrauch von Kindern zeigt, "nicht voranzuschreiten", erklärte Apple in einer Stellungnahme gegenüber dem Magazin Wired. "Kinder lassen sich schützen, ohne dass Firmen dafür persönliche Daten durchkämmen müssen".

Fokus auf optionalen Nacktfilter für iMessage & Co


Im Austausch mit Kinderschutzorganisationen will sich Apple nun ganz darauf konzentrieren, Funktionen rund um die "Kommunikationssicherheit" auszubauen. Das ist aktuell ein optionaler Nacktfilter mit Hilfematerial, der in iMessage respektive die App "Nachrichten" integriert ist und den Eltern auf den verwalteten Geräten von Kindern aktivieren können. Die Erkennung von Nacktaufnahmen soll dabei rein auf dem Gerät erfolgen, ohne Dritte zu benachrichtigen.

Der Kommunikationssicherheit-Filter soll künftig auch Nacktheit in Videos erkennen können, erläuterte Apple gegenüber Wired. Man wolle die Option außerdem in weiteren eigenen Kommunikations-Apps anbieten und es auch Dritt-Entwicklern ermöglichen, den Nacktfilter in ihre Apps zu integrieren. Auf diesem Wege könne man "möglichen Kindesmissbrauch schon unterbrechen, bevor er passiert". Das Unternehmen sehe sich verpflichtet, sogenanntes CSAM ("Child Sexual Abuse Material") zu bekämpfen und trotzdem die "spezifischen Datenschutzanforderungen persönlicher Kommunikation und Datenspeicherung zu berücksichtigen".

CSAM-Tool sollte iPhones scannen

Apples im Jahr 2021 angekündigtes CSAM-Erkennungs-Tool sah eine Prüfung der iCloud-Fotos direkt auf den Geräten der Kunden vor. Dafür sollten die Bilder auf iPhones mit einer Datenbank abgeglichen, in der Hashes von durch verschiedene Organisationen dokumentiertem Missbrauchsmaterial gespeichert sind.

Ab rund 30 Treffern sollte das Betriebssystem dann Apple-Mitarbeiter informieren, die dem Plan zufolge eine niedrig aufgelöste Version des Bildmaterials entschlüsseln und einsehen können. Beim Fund von CSAM, sollte in den USA dann die Organisation NCMEC zugeschaltet werden, die wiederum Strafverfolger informieren kann. Apple argumentierte, das sei datenschutzfreundlicher als gängiges CSAM-Scanning in der Cloud.

Ende-zu-Ende-Verschlüsselung für iCloud-Fotos

Der Plan stieß auf massive Kritik von Sicherheitsforschern, Bürgerrechtlern und Datenschutzorganisationen – das iPhone werde damit letztlich zum Spitzel, das den Nutzer dauerüberwacht. Apple verteidigte das Projekt anfangs, lenkte schließlich aber ein und legte das Projekt auf Eis.

Auch bei dem Nacktfilter besserte das Unternehmen nach und strich die ursprünglich geplante automatische Benachrichtigung der Eltern bei Empfang oder Versand vermuteter Nacktinhalte. Der Nacktfilter ist bereits als Option im Betriebssystem verfügbar, inzwischen auch in Deutschland. Apple hat am Mittwochabend angekündigt, dass Nutzer viele zentrale iCloud-Daten bald mit Ende-zu-Ende-Verschlüsselung schützen können, darunter auch iCloud-Fotos.

Unbenanntc.jpg

Quelle; heise
 
Zurück
Oben