Home » Apple » Apple gleicht künftig iCloud-Fotos mit Hash-Datenbank von Missbrauchsopfern ab
AppleiOSiPadOS
7. August 2021

Apple gleicht künftig iCloud-Fotos mit Hash-Datenbank von Missbrauchsopfern ab

Nun will auch Apple den Kampf gegen Missbrauch von Kinder und Jugendlichen aktiv unterstützen. So gleicht man künftig automatisiert Inhalte von iCloud Fotos mit einer Datenbank von Missbrauchsaufnahnahmen ab, welche dort in Form von Hashs vorliegen.

Das Scannen von Fotos nach CSAM (Child Sexual Abuse Material) ruft aber zu gleich die US-Datenschützer auf den Plan. So befürchten diese ein hohes Missbrauchspotential der Funktion. Andere Unternehmen wie Microsoft, Google, Facebook, Twitter oder auch Adobe setzen derartige Technologien bereits seit einigen Jahren ein. Meldet das System einen oder mehrere Treffer werden die betroffenen Inhalte erst von Mitarbeitern des jeweiligen Unternehmens überprüft. Entdecken diese dann entsprechendes Material, ergeht eine Meldung an die Strafverfolgungsbehörden. logo

Auch iMessage bekommt kommt unter den Scanner

So sollen künftig auch Kinder und deren Eltern gewarnt werden, wenn diese eindeutige Fotos mit sexuellen Darstellungen erhalten oder versenden (möchten). Nach Angaben von Apple verwendet man zur Erkennung derartiger Fotos maschinelles Lernen auf dem Gerät, womit Fotos analysiert werden. Wird von diesem System ein Foto als sexueller Inhalt eingestuft, wird das Foto automatisch unscharf und das Kind davor gewarnt. Je nach Einstellung können die Eltern auch eine entsprechende Benachrichtigung erhalten, wenn der eigene Nachwuchs derartige Fotos empfängt oder versendet. Die Ende-zu-Ende-Verschlüsslung soll trotz dieses Verfahrens laut Apple erhalten bleiben, womit die Kommunikation nicht durch den Anbieter mitgelesen werden kann.

 

Keine News mehr verpassen! Unsere App für iOS und Android mit praktischer Push-Funktion.

Über den Autor

Bjørn Max Wagener

Journalist ✏ • BOS-Reporter • 1. FFC Turbine Potsdam ⚽ • Dosenöffner von Barney • Urbexer • Video Editor