Quelle: Gettyimages.ru © imaginima Viele Behörden verwenden bereits Gesichtserkennung oder planen sogar, weitere sensible Daten von Menschen unter dem Vorwand der Sicherheit zu erheben.
Wenn Behörden ihre Entscheidungen auf Grundlage von Überwachungsmöglichkeiten mit KI-basierten Algorithmen treffen – wie etwa der “biometrischen Gesichtserkennung” –, dann wird es gefährlich. Denn was gestern in Europa noch unvorstellbar schien, könnte nach den Plänen der Europäischen Union (EU) auch hier bald schon Realität werden. Demnach sollen Ein- und Ausreisende von den Grenzschutzbehörden für den Schengen-Raum künftig zusätzlich anhand einer Gesichtserkennungssoftware identifiziert werden. Doch die entsprechenden EU-Ambitionen gehen noch viel weiter – auch der öffentliche Raum soll so überwacht werden.
Vergangene Woche fand der alljährliche “Europäische Polizeikongress” (der EU) statt. Hauptthema der Veranstaltung war über weite Strecken das neue Ein- und Ausreisesystem EES der EU-Grenzschutzbehörde Frontex. Das auf künstlicher Intelligenz basierende System soll künftig alle Grenzübertritte von Einreisenden aus Drittstaaten an den EU-Außengrenzen erfassen.
Überwachung des COVID-Zertifikats per Gesichtsscan? In der Schweiz vielleicht schon bald Realität
Durch das EES werden die sogenannten Stammdaten der Einreisenden aus Drittländern wie etwa der Name und das Geburtsdatum von der Person erhoben. Darüber hinaus sollen in der EU-weiten Datenbank auch biometrische Daten wie Fingerabdrücke und mit der Biometrie konforme Lichtbilder gespeichert werden. Bei der erstmaligen Einreise in den Schengen-Raum soll nach den Plänen der EU anhand dieser erhobenen Daten somit ein Dossier der jeweiligen Person erstellt werden, auf das künftig dann auch alle anderen EU-Behörden Zugriff haben werden.
Noch nicht ganz klar ist, inwieweit das neue Grenzschutzsystem auch in andere Projekte, wie etwa die Überwachung des öffentlichen Raums, integriert werden soll. Erst kürzlich beschlossen die einzelnen EU-Institutionen im Rahmen des “AI Act”, ihres weitgehend noch unbekannten sogenannten “Artificial Intelligence Act”, einstimmig die Verordnungen “Digitaler Markt” (DMA) und “Digitale Services” (DSA). An der dazu gehörenden Regulierung des Einsatzes Künstlicher Intelligenz (KI/AI) wird derzeit auch schon gearbeitet – ohne zu großes Aufsehen in der Bevölkerung erregen zu wollen.
Denn insbesondere bezüglich der geplanten Regularien zeichnen sich nun erhebliche Kontroversen darüber ab, was da eigentlich alles genau reguliert wird. Die EU-Pläne würden nämlich tief in die Lebenswelt aller EU-Bürger eingreifen. Demnach sollen auch an öffentlichen Plätzen künftig Systeme zur biometrischen Gesichtserkennung eingesetzt werden, in denen eine Software mit der Hilfe von Kameras, eine Person identifiziert und dabei sämtliche bereits verfügbare Daten über die sich dort aufhaltende Person aggregiert, ohne dass es den erfassten Personen in jenem Moment wirklich bewusst sein kann. Hinzu kommt, dass diese KI-Algorithmen bis heute eigentlich keine eindeutigen, hundertprozentigen Ergebnisse liefern können, sondern “nur” Wahrscheinlichkeiten berechnen: Ein gefährliches Spiel, vor allem für die betroffenen Personen.
Trotz schlechter Trefferquote: Britische Polizei baut Gesichtserkennung aus
Wie riskant die Nutzung solcher KI-basierten Systeme sein kann, hat unter anderem ein Skandal gezeigt, der Anfang 2021 zum Rücktritt der niederländischen Regierung führte. Seit 2012 nutzten die Behörden dort eine KI-Software zur Erkennung von Sozialbetrug. Statt die Ergebnisse der Software zu überprüfen, verließen sich die Beamten offensichtlich gänzlich auf die eingesetzte Künstliche Intelligenz. Die auf solche Weise durch Algorithmen des vermeintlichen Sozialbetrugs Überführten sahen sich in der Folge mit fünfstelligen Rückforderungen an Kindergeld und anderen Sozialleistungen konfrontiert. Allerdings waren die auf der Grundlage von Wahrscheinlichkeiten erzeugten Daten falsch. Als der Skandal 2020 ans Licht kam, waren es mittlerweile 26.000 niederländische Familien, die zu Unrecht als Sozialbetrüger “entlarvt” worden waren.
Solche Skandale führten mitunter dazu, dass die Vorhaben der EU zur Nutzung Künstlicher Intelligenz zunehmend stark umstritten sind. Denn zudem könnten EU-Mitgliedsländer solche Systeme auch benutzen, um gezielt politische Gegner (oder einfach nur Andersdenkende?) zu verfolgen. Durch die geplante Nutzung der neuen Überwachungsmaßnahmen würden “wichtige verfahrenstechnische und gerichtliche Schutzmaßnahmen” ausdrücklich aufgehoben, warnte unter anderem die Bürgerrechtsorganisation European Digital Rights (EDRi). Jede Gesichtsdatenbank erhöhe demnach das Risiko einer biometrischen Massenüberwachung, so die Bürgerrechtsorganisation.
Source