Sie sind hier: Home » Markt » Hinweise & Tipps

Chatkontrolle: Der Zweck heiligt nicht die Mittel


IT-Sicherheitsexperten mahnen vor Massenüberwachung durch Echtzeit-Scans
Technische Lösungen und ihre datenschutzrechtlichen Nachteile




Die EU-Kommission stellte vor Kurzem ihre Pläne für ein neues Gesetz zur Chatkontrolle vor. Ziel ist es, den Kampf gegen sexuellen Missbrauch Minderjähriger voranzutreiben. "Das ist zweifelsfrei dringend notwendig. Doch erreicht werden soll dies, indem die Privatsphäre unter anderem auf unser aller Mobiltelefone ausgehebelt wird. Ob jedoch die anlasslose Massenüberwachung auch unbescholtener Bürgerinnen und Bürger die Strafverfolgung in dieser Hinsicht wirklich weiterbringt, bezweifle ich stark", kritisiert IT-Sicherheitsexpertin Patrycja Schrenk, Geschäftsführerin der PSW Group scharf.

Es sind erschreckende Zahlen, von denen die EU-Kommission berichtet: Allein im Jahr 2021 gab es 85 Millionen Meldungen von Bildern und Videos, die sexuellen Kindesmissbrauch darstellen – die Dunkelziffer liegt weitaus höher. Um Kindesmissbrauch mit neuen Methoden verfolgen zu können, präsentierte die EU-Kommission nun einen Gesetzesvorschlag zum Schutz von Kindern: Mit der Chatkontrolle – also dem Durchleuchten von Online-Kommunikation in Messengern, sozialen Netzwerken oder auch per E-Mail – möchte die EU Algorithmen einführen, die erkennen können, ob und wann Material zu Kindesmissbrauch online geteilt wird.

Um dies zu erreichen, könnte Künstliche Intelligenz (KI) zum Einsatz kommen: Der Algorithmus erkennt bereits bekanntes Material anhand eines Hashwerts, also eines einzigartigen Werts, der den Datei-Inhalt beschreibt. Ist den Algorithmen – und damit auch den Behörden – ein Bild bekannt, auf dem Kindesmissbrauch dargestellt wird, können alle Bilder damit abgeglichen werden. Um bisher nicht bekanntes Material erkennen zu können, sollen die Algorithmen mittels Machine Learning, also maschinellem Lernen, dazulernen können. Allerdings: "Das anlasslose Scannen von Kommunikationen im Internet ist ein großer Eingriff in die Privatsphäre", mahnt die IT-Sicherheitsexpertin.

Welche technischen Lösungen eingesetzt werden sollen, ließ die EU-Kommission zudem offen. Aktuell sind zwei Verfahren im Gespräch. So sollen entweder Anbieter Nachrichten vor dem Verschlüsseln durchleuchten, wobei möglicherweise Nachrichten dann unverschlüsselt ausgeleitet werden. "Dieses "client-side scanning", kurz CSS, ist gefährlich für die IT-Sicherheit: Staatliche Stellen erhalten Zugang zu privaten Inhalten, sodass es sich um Abhöraktionen handelt. Viele Nutzergeräte weisen zudem Schwachstellen auf, die durch die Überwachungs- und Kontrollmöglichkeiten des CSS von weiteren Akteuren ausgenutzt werden können. CSS schwächt aber auch die Meinungsfreiheit und Demokratie: Einmal eingeführt, wird es schwer, sich gegen etwaige Ausweitungen zur Wehr zu setzen oder Kontrolle über den Missbrauch des Systems zu erhalten", warnt Patrycja Schrenk.

Ein zweites Verfahren wäre die Aushebelung der Verschlüsselung durch die Messenger-Dienste selbst. Hierzu möchte die EU Anbieter zu einer Hintertür im Messenger verpflichten, sodass über diese auf die Inhalte des Smartphones zugegriffen werden kann. Davon betroffen sind Hostprovider, einschließlich Foto- und Videoplattformen, Zugangsprovider, App Store-Betreiber sowie interpersonelle Kommunikationsdienste wie Messenger und E-Mail. Diesen Diensten soll vorgeschrieben werden, Chats, Nachrichten sowie E-Mails mittels Künstlicher Intelligenz (KI) nach verdächtigen Inhalten zu durchleuchten. Wurden verdächtige Inhalte erkannt, sollen diese an Strafverfolgungsbehörden weitergeleitet werden, die dann ihrerseits prüfen, ob sich der Anfangsverdacht bestätigt hat.

"Problematisch bei den aktuell vorhandenen Technologien ist mitunter die hohe Fehlerquote: Auch irrtümliche Treffer müssen an die Strafverfolgungsbehörden gesendet werden, sodass harmlose Nachrichten, Chats, Videos oder Fotos von Unschuldigen gesichtet und unnötig verbreitet werden. Heißt für die Praxis: Menschen, die im geplanten EU-Zentrum arbeiten, müssen falsch-positives Material händisch aussortieren. Damit bekommen Ermittelnde auch legale Aufnahmen Minderjähriger zu sehen", so Patrycja Schrenk.

Falsch-positive Ergebnisse entstehen, weil die scannende KI den Kontext nicht versteht: Verbringt eine Familie den Sommer am Strand und schickt einander die entstandenen Fotos zu, landen diese unter Umständen in der EU-Zentrale und bei Europol. Privatsphäre sieht anders aus. Was folgt, könnte eine nie da gewesene Massenüberwachung aller Bürgerinnen und Bürger sein – anlasslos und vollautomatisiert. Damit würde das Recht auf Verschlüsselung ausgehebelt und das digitale Briefgeheimnis abgeschafft werden.

"Wir dürfen uns auch nichts vormachen: Maschinell nach Grooming-Versuchen oder derzeit unbekannten Missbrauchsdarstellungen suchen zu wollen, ist rein experimentell – auch, beziehungsweise gerade, unter Verwendung von KI. Denn die Algorithmen, die dabei eingesetzt werden, sind weder der Öffentlichkeit noch der Wissenschaft zugänglich. Und eine Offenlegungspflicht ist in dem Gesetzentwurf nicht zu finden. Kommunikationsdienste, die für Grooming-Versuche missbraucht werden könnten – und darunter fallen alle Kommunikationsdienste – müssen Altersverifikationen mit Nutzerinnen und Nutzern durchführen. Das geht nur, wenn diese sich ausweisen. Damit wird die anonyme Kommunikation de facto unmöglich gemacht, was gerade Menschenrechtler, Whistleblower, politisch Verfolgte, Journalisten oder marginalisierte Gruppen bedrohen könnte", kritisiert Schrenk scharf.

"Ich habe aber nichts zu verbergen": Falsch!
Damit ist aus Datenschutzsicht der Entwurf zum Chatkontrolle-Gesetz katastrophal, denn Jede und Jeder steht unter Generalverdacht! "Wer glaubt, er oder sie hätte nichts zu verbergen, sollte darüber nachdenken, dass im Falle einer Chatkontrolle alle E-Mails und Chats automatisch auf verdächtige Inhalte durchsucht werden. Es existiert dann keine vertrauliche und geheime Kommunikation mehr. Gerichte müssen derlei Durchsuchungen nicht mehr anordnen, sie geschehen automatisiert", mahnt Patrycja Schrenk und nennt die weitreichenden Konsequenzen: "Harmlose Familienfotos vom Strandurlaub werden höchstwahrscheinlich falsch-positiv anschlagen und von internationalen Ermittelnden angesehen. Ein Urlaubsfoto, das vom Sprössling am Strand an die Oma versendet wird, macht diese schon verdächtig."

Kommt die Chatkontrolle könnten außerdem weitere staatliche Akteure wie Geheimdienste oder auch Cyberkriminelle auf privaten Chats und E-Mails zugreifen. "Etabliert sich die Technologie zur Chatkontrolle, ist es einfach, sie auch für andere Zwecke einzusetzen. Die erzwungene Hintertür ermöglicht nämlich das Überwachen bislang sicher verschlüsselter Kommunikationen auch für andere Zwecke. Den Algorithmen ist es egal, ob sie nach Kindesmissbrauch, Drogenkonsum oder nach unliebsamen Meinungsäußerungen suchen. In einigen Staaten der EU ist es beispielsweise nicht normal, zur LGTPQ+ Bewegung zu gehören. Tatsächlich verwenden autoritäre Staaten derlei Filter zur Verfolgung und Verhaftung von Andersdenkenden", gibt Schrenk zu bedenken.

Schlimmstenfalls schadet die Chatkontrolle sogar bei der Verfolgung von Kindesmissbrauch, denn Ermittelnde sind mit Meldungen überlastet, die oftmals strafrechtlich irrelevant sind. Überdies werden Missbrauchstäter nicht getroffen: Schon jetzt nutzen sie in aller Regel keine kommerziellen Online-Dienste, sondern richten eigene Foren ein. Dort laden sie Bild- und Videomaterial häufig als verschlüsseltes Archiv hoch und teilen nur Links und Passwörter. Die Algorithmen der Chatkontrolle funktionieren hier nicht. "Sorgen bereitet mir zudem, dass die Strafverfolgung privatisiert würde. Denn dann entscheiden Algorithmen großer Tech-Giganten, welche Inhalte als verdächtig gelten", so Schrenk. (PSW Group: ra)

eingetragen: 20.09.22
Newsletterlauf: 18.10.22

PSW Group: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>


Meldungen: Markt / Hinweise & Tipps

  • Ethik für KI-Technologien ein Muss

    Das Europäische Parlament hat kürzlich mit dem "AI-Act" die weltweit erste staatliche Regulierung von KI verabschiedet. Die Verordnung soll die Entwicklung und den Einsatz von KI-Technologien maßgeblich regeln, indem sie Transparenz, Rechenschaftspflichten und Sicherheitsstandards vorschreibt.

  • Prüfungsangst kommt nicht von ungefähr

    Stehen die Prüfer des Fiskus vor der Tür, steigt in fast jedem Unternehmen das Nervositätslevel. Die Besucher kündigen sich zwar rechtzeitig an, stellen ihren Gastgebern aber ausführliche Detailfragen und schauen sich interne Unterlagen genau an, was nicht nur Zeit und Nerven kostet, sondern manchmal auch sehr viel Geld. "Mit einer gründlichen Vorbereitung können Firmen, Freiberufler und Selbstständige der Kontrolle ihrer Buchführung durch das Finanzamt aber in aller Regel gelassen entgegenblicken", betont Prof. Dr. Christoph Juhn, Professor für Steuerrecht an der FOM Hochschule und geschäftsführender Partner der Kanzlei Juhn Partner.

  • Bausteine für ein erfolgreiches ESG-Reporting

    Das Europäische Parlament hat bereits zum Jahresende 2022 die EU-Richtlinie zur Nachhaltigkeitsberichterstattung (Corporate Sustainability Reporting Directive, kurz CSRD) angenommen. Zahlreiche Unternehmen - kapitalmarktorientierte, aber auch viele aus dem Mittelstand - sind spätestens Anfang 2025 rechtlich dazu verpflichtet, Informationen über die gesellschaftlichen und ökologischen Auswirkungen ihres Handelns zu veröffentlichen und nach einem klar vorgegebenen Kriterienkatalog Rechenschaft abzulegen.

  • Chaos bei der Umsetzung von NIS-2 droht

    Ein Blick zurück kann manchmal sehr lehrreich sein: Am 26. Mai 2018 trat die Datenschutz-Grundverordnung, kurz DSGVO, in Kraft - genauer gesagt endete die 24-monatige Übergangsfrist. Zwei Jahre hatten deutsche Unternehmen also Zeit, ihre Prozesse an die neue Richtlinie anzupassen.

  • Die Uhr für DORA-Compliance tickt

    Ab dem 17. Januar 2025, gilt der Digital Operational Resilience Act (DORA) EU-weit für Finanzunternehmen und ihre IT-Partner. Da es sich um eine Verordnung der europäischen Union handelt, findet die Umsetzung in nationales Recht nicht statt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen