Apples CSAM-Eindämmungsfunktionen: Eine Hintertür zur Privatsphäre?

Apple hat sich als einer der ausgezeichnete Technologieunternehmen gegen Facebook und Google, um die Privatsphäre der Benutzer zu wahren. In letzter Zeit war der Cupertino-Riese jedoch von Datenschutzbegeisterten umgeben, die die CSAM-Präventionsfunktionen von Apple in Frage stellten.

Zuvor steckte Apple im NSO-Debakel fest. Es wurde festgestellt, dass es einfacher ist, Spyware in iPhones zu installieren als in Android.

In jüngerer Zeit haben Apples neue Funktionen zur Eindämmung der Verbreitung von Material zum sexuellen Missbrauch von Kindern (CSAM) das Unternehmen in eine Kontroverse gebracht. Die Kritiker werfen Apple vor, eine Methode entwickelt zu haben, die das Potenzial hat, die Privatsphäre von Millionen zu untergraben.

Die Bemühungen zur Begrenzung von CSAM sind zwar lobenswert, ihre Umsetzung lässt jedoch die Augenbrauen hochziehen.

Was sind die neuen Kindersicherheitsfunktionen von Apple?

Am Montag intensivierte Apple seine Bemühungen, die Verbreitung von CSAM auf seinen Plattformen zu verhindern. Das Unternehmen stellte sich vor drei neue Funktionen das wird mit iOS 15 verfügbar sein.

  • Erstens fügt Apple der Siri- und Spotlight-Suche neue Ressourcen hinzu, um Benutzern zu helfen, Antworten auf CSAM-bezogene Anfragen zu finden. Diese Funktion ist völlig harmlos und ändert nichts an der Privatsphäre.
  • Zweitens ändert Apple seine Nachrichten-App, indem es eine Kindersicherungsoption hinzufügt, die empfangene und gesendete Fotos in Nachrichten auf sexuell eindeutige Inhalte für Benutzer unter 18 scannt. Wenn es gefunden wird, wird das fragliche Foto unscharf und daneben eine Warnmeldung angezeigt.

Apple KinderschutzfunktionenQuelle: Apple

  • Die letzte und umstrittenste Funktion ist das Scannen der iCloud-Fotos-Bibliothek nach potenziellem CSAM.

Wie wird die CSAM-Funktion funktionieren?

Wenn ein Benutzer unter 12 Jahren versucht, den gekennzeichneten Inhalt anzuzeigen, wird eine Benachrichtigung an seine Eltern gesendet. Insbesondere scannt Apple Fotos auf dem Gerät, damit es nichts über den Inhalt weiß.

Auch die Funktion, eine Benachrichtigung zu erhalten, wenn Kinder auf sensible Inhalte zugreifen, ist optional.

Darüber hinaus wird Apple eine Funktion hinzufügen, mit der Sie Ihre iCloud-Fotos-Bibliothek lokal nach sexuell eindeutigen Inhalten durchsuchen und mit den CSAM-Daten des National Center for Missing and Exploited Children (NCMEC) abgleichen können. Wenn eine Übereinstimmung gefunden wird, wird ein „Sicherheitsgutschein“ generiert und in die iCloud hochgeladen.

Sobald die Anzahl dieser Sicherheitsgutscheine einen unbekannten Schwellenwert erreicht, können Apple-Moderatoren die Fotos entschlüsseln und auf das Vorhandensein von CSAM scannen. Wenn es gefunden wird, könnte Apple das Konto den Strafverfolgungsbehörden melden.

Was sagt Apple?

Während das gesamte „Scannen durch die iCloud-Fotobibliothek“ wie ein mutiger und invasiver Schritt klingt, hat Apple betont, dass die Funktion die Privatsphäre der Benutzer nicht beeinträchtigt. Es scannt speziell die Fotos, die über NeuralHash in Ihre iCloud hochgeladen wurden.

Es ist ein Tool, das jedem Foto eine eindeutige Kennung zuweist und so den Inhalt der Fotos verschleiert, sogar für Apple. Das Unternehmen hat betont, dass Benutzer die Synchronisierung mit der iCloud-Funktion deaktivieren können, um jede Art von Scan zu stoppen.

Außerdem ist Apples offizieller Blog sagt,

Messages verwendet maschinelles Lernen auf dem Gerät, um Bildanhänge zu analysieren und festzustellen, ob ein Foto sexuell eindeutig ist. Die Funktion ist so konzipiert, dass Apple keinen Zugriff auf Nachrichten erhält.

Warum also das Hullabaloo?: Die Seite der Kritiker

Apple betont wiederholt, dass diese Funktionen mit Blick auf die Privatsphäre entwickelt wurden, um Kinder vor sexuellen Raubtieren zu schützen, aber die Kritiker sind anderer Meinung. Während die Nachrichtenfunktion das Scannen auf dem Gerät durchführt, erstellt Apple von Natur aus ein Snooping-System, das katastrophale Auswirkungen haben könnte.

Kendra Albert von der Harvard Cyberlaw Clinic argumentiert das:

Diese „Kinderschutz“-Funktionen könnten sich für Queers mit nicht akzeptierenden Eltern als kostspielig erweisen. Sie könnten geschlagen und aus ihrem Haus geworfen werden. Sie sagt zum Beispiel, dass ein queeres Kind, das seine Übergangsfotos an Freunde schickt, von der neuen Funktion markiert werden könnte.

Stellen Sie sich die Auswirkungen vor, die dieses System in Ländern haben kann, in denen Homosexualität noch nicht legal ist. Die autoritären Regierungen könnten Apple bitten, LGBTQ+-Inhalte in seine Liste bekannter Datenbanken aufzunehmen. Diese Armverdrehung von Tech-Agenturen ist nichts, was wir noch nie gesehen haben.

Apple hat jedoch eine ziemlich gute Bilanz gegenüber solchen Anfragen. Es ist zum Beispiel fest geleugnet die Anfrage des FBI, Daten vom iPhone eines Massenschützen zu entschlüsseln im Jahr 2016.

In Ländern wie China, in denen Apple die Daten von iCloud lokal speichert, könnte dies jedoch dazu führen, dass Apple ihren Forderungen nachkommt. Dadurch wird die Privatsphäre der Benutzer insgesamt gefährdet.

Electronic Frontier Foundation sagt das:

Apples Bemühungen sind ein “vollständiges System, das nur auf externen Druck wartet, um die geringste Änderung vorzunehmen”.

Die letzte Funktion ist bei einem Datenschutz-POV noch kritischer. Das Scannen von iCloud-Fotos ist eindeutig eine Verletzung der Privatsphäre des Benutzers. Damit verfügt Ihr iPhone jetzt über eine Funktion, die Ihre Fotos scannen und mit einer Reihe illegaler und sexuell eindeutiger Inhalte abgleichen kann.

All dies, während Sie Ihre Fotos einfach in den Cloud-Speicher hochladen möchten!

Apples Vergangenheit vs. Gegenwart: Die steigenden Sorgen

Als Apple dem FBI trotzte und sich weigerte, das iPhone eines Massenmörders freizuschalten, sagte das Unternehmen bekanntlich: „Ihr Gerät gehört Ihnen. Es gehört nicht uns.“

Es scheint, dass das Gerät schließlich Apple gehört, da Sie keine Kontrolle darüber haben, wer sich die Inhalte Ihres Geräts ansieht.

Benutzer können argumentieren, dass ihre angeklickten Fotos ihnen gehören und Apple nicht berechtigt ist, sie zu scannen. Meiner Meinung nach wird es für viele nicht verhandelbar sein.

MSNBC hat die iCloud-Funktion zum Scannen von Fotos von Apple mit der Pegasus-Software von NSO verglichen, um Ihnen eine Vorstellung von dem Überwachungssystem zu geben, das im Namen des „größeren Gutes“ gebaut wird. Der Bericht sagt,

Denken Sie an die Spyware-Fähigkeiten, die die NSO Group, ein israelisches Unternehmen, Regierungen angeblich zur Verfügung gestellt hat, um Terroristen und Kriminelle aufzuspüren, die einige Länder dann nutzten, um Aktivisten und Journalisten zu überwachen. Stellen Sie sich nun die gleichen Fähigkeiten vor, die in jedem iPhone und Mac-Computer im Flugzeug fest einprogrammiert sind.

Es ist nicht schwer, sich die nachteiligen Auswirkungen der Implementierung des Features durch Apple vorzustellen.

Apple möchte, dass Sie ihm vertrauen!

Seitdem das Unternehmen diese Funktionen angekündigt hat, haben sich Datenschutzbegeisterte vehement dagegen gestellt. Als Reaktion darauf hat Apple ein PDF mit FAQs zu seinen CSAM-Präventionsinitiativen veröffentlicht.

In dem Dokument erwähnt Apple, dass es alle Forderungen von Regierungsbehörden ablehnen wird, Nicht-CSAM-Images zu seiner Hash-Liste hinzuzufügen. Das PDF sagt:

Wir haben uns schon früher Forderungen gestellt, von der Regierung vorgeschriebene Änderungen zu erstellen und bereitzustellen, die die Privatsphäre der Benutzer beeinträchtigen, und haben diese Forderungen standhaft abgelehnt. Wir werden sie auch in Zukunft ablehnen.

Im Interview mit Techcrunch, versuchte Apples Datenschutzchef Erik Neuenschwander, die Bedenken rund um die Funktionen auszuräumen.

Er sagte: „Das Gerät ist immer noch verschlüsselt, wir haben den Schlüssel immer noch nicht und das System ist so konzipiert, dass es mit Daten auf dem Gerät funktioniert. Was wir entwickelt haben, hat eine geräteseitige Komponente – und es hat übrigens die geräteseitige Komponente, um den Datenschutz zu verbessern. Die Alternative, die Benutzerdaten auf einem Server nur durchzugehen und auszuwerten, ist tatsächlich anfälliger für Änderungen [without user knowledge]und weniger Schutz der Privatsphäre der Benutzer.“

Wie es scheint, möchte Apple, dass Sie ihm die privaten Inhalte Ihres Telefons anvertrauen. Aber wer weiß, wann das Unternehmen diese Versprechen zurücknimmt.

Die Existenz eines solchen Systems, das die Inhalte ausspioniert, die Sie allein besitzen, bevor sie verschlüsselt werden, öffnet eine Dose Würmer. Sobald sie die Zustimmung erstellt und ein System eingerichtet haben, wäre es schwierig, sie einzuschränken.

Überschatten die Vorteile die Risiken der neuen Kindersicherheitsfunktionen von Apple?

Obwohl Apples Bemühungen großartig sind, den sexuellen Missbrauch von Kindern zu bekämpfen, kann dies keine Entschuldigung sein, Ihre Daten im Auge zu behalten. Die bloße Existenz eines Überwachungssystems schafft die Möglichkeit einer Sicherheitshintertür.

Ich glaube, dass Transparenz der Schlüssel für Apple ist, um den Mittelweg zu erreichen. Eine rechtliche Beteiligung könnte dem Unternehmen auch helfen, Vertrauen in seinen Plan zu gewinnen, CSAM im Internet zu stören.

Dennoch vereitelt die Einführung dieses Systems den gesamten Zweck der Verschlüsselung. Das Unternehmen könnte eine Welle von Experimenten starten, die sich in Zukunft möglicherweise als fatal für die Privatsphäre erweisen könnten.

Noch wichtiger ist, dass es bei Apple beginnt, dem letzten Unternehmen, von dem alle dies erwartet haben. Es ist wahr, dass man entweder als Held stirbt oder lange genug lebt, um zu sehen, wie man zum Bösewicht wird.

Lesen Sie andere Leitartikel:

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *