iPhone: Apple legt seine kontroversen Pläne zum Scannen nach Nacktbildern von Kindern auf Eis
Noch bis vor wenigen Tagen hat Apples Webseite, welche iOS-Features zum Schutz von Kindern listet, eine ausführliche Beschreibung der kontroversen CSAM-Scans (Child Sexual Abuse Material) enthalten, nun wurden sämtliche Hinweise auf diese Vorgehensweise von der Webseite entfernt. Das bedeutet zwar nicht unbedingt, dass Apple diese Pläne komplett aufgegeben hat, es deutet aber alles darauf, dass dieses Vorhaben zumindest auf Eis liegt.
iPhone-Nutzer müssen sich also vorerst keine Sorgen darüber machen, dass CSAM-Scans potentiell ihre Privatsphäre verletzen. Vorerst beschränkt sich der Konzern darauf, Nacktbilder in der Nachrichten-App zu scannen, und auch das nur, wenn der Nutzer bzw. dessen Eltern dieses Feature zuvor aktiviert haben. Apple hatte zwar beteuert, dass keinerlei Bilder in der Cloud analysiert werden, und dass Bilder noch vor dem Upload in die iCloud Fotobibliothek auf dem Gerät mit einer Hash-Datenbank abgeglichen werden sollen, das konnte Kritiker dieser Vorgehensweise aber nicht beruhigen.
Laut Apple liegt das Risiko, dass ein Account irrtümlicherweise gemeldet wird, bei rund einer Billionen zu eins. Zahlreiche Kritiker haben das aber anders gesehen, inklusive Edward Snowden, Sicherheitsexperten der EU und der Electronic Frontier Foundation. Die Kritik richtete sich vor allem gegen die Einführung von Massenüberwachung auf iPhones, aber auch die konkrete Vorgehensweise wurde als ineffektiv und gefährlich bezeichnet.
Wir erweitern unser Team und suchen News-Redakteure sowie Unterstützung für unsere Video-Produktion im Raum Hamburg.
Details