24-0123/
Blog
Mittels einer Gesichtserkennungssoftware erstellt Clearview AI eine Datenbank aus Milliarden von öffentlich zugänglichen Fotos von menschlichen Gesichtern. Die Fotos hierfür wurden aus sozialen Medien und anderen Online-Quellen bereitgestellt. Mithilfe der Clearview-AI-Software können andere öffentlich zugängliche Bilder derselben Person anhand eines einzelnen Gesichtsfotos gefunden und mit persönlichen Daten wie Social Media Profile, Name, Wohnort und Beruf verknüpft werden.
Clearview AI kooperiert mit vielen Strafverfolgungsbehörden, insbesondere in den Vereinigten Staaten. In den USA liege auch der Hauptmarkt von Clearview AI, so der CEO Hoan Ton-That.
“While there has been tremendous demand for our service from around the world, Clearview AI is primarily focused on providing our service to law enforcement and government agencies in the United States,” teilte er 2021 BuzzFeed-News mit.
In 2019 war die Indiana State Police der erste offizielle Kunde. Danach folgte das Department of Homeland Security.
Laut einer Untersuchung von „Buzzfeed“ haben auch Behörden aus verschiedenen EU-Ländern die Software zumindest ausprobiert.
Was macht Clearview AI?
Clearview AI agiert wie eine biometrische Suchmaschine. Das Unternehmen verwendet seine Software, um ca. 10 Milliarden Bilder zu indexieren (Ziel sind 100 Milliarden). Diese indexierten Bilder stammen aus dem Internet und Social Media Kanälen: Facebook, Instagram, LinkedIn, X etc. und werden mittels des eigenen KI-Tools ausgewertet. Durch diese Identifikations-Hilfe unterstützt Clearview AI beispielsweise Strafverfolgungen in den USA.
Clearview AI in der rechtlichen Grauzone
Die amerikanische Firma ist hoch umstritten, da sie rechtlich gesehen in einer gewissen Grauzone agiert. In Europa gibt es einige Staaten, die gegen Clearview AI klagten und teilweise recht bekamen. Nicht immer gingen die Gerichtsverhandlungen so aus, dass die Verwendung der Fotos für die Datenbank verboten wurde.
Beispielsweise klagte Großbritannien gegen Clearview AI im Jahr 2023. Das Unternehmen wurde schlussendlich im Juni 2023 zu 7.5 Millionen Pounds verklagt. Clearview AI legte Revision ein und bekam im Oktober desselben Jahres recht, die 7.5 Millionen-Pounds-Strafe wurde zurückgezogen. Online Medien, wie z.B. Politico.eu schreiben „Großbritannien ist machtlos.“
Auch die österreichische Datenschutzbehörde beschloss, dass es illegal für Clearview AI ist, österreichische Daten zu verarbeiten. Dennoch wurde keine Geldstrafe verhängt oder kein generelles Verbot gegen die amerikanische Firma in Österreich ausgesprochen. Die österreichische Datenschutzbehörde erwähnte allerdings, dass sie das Verbot zu einem späteren Zeitpunkt aussprechen könne.
Weitere Beschwerden bei Datenschutzbehörden gab es in Frankreich, Italien und Griechenland. Griechenland strafte das amerikanische Unternehmen mit einem Bußgeld in Höhe von 20 Millionen Euro (Stand Juli 2022), ebenso verhängte Italien einige Monate zuvor dem amerikanischen Unternehmen eine 20-Millionen-Euro-Strafe (Mai 2022). Frankreich maßregelte Clearview AI mit einer weiteren Geldstrafe in Höhe von 20 Millionen Euro. (Stand Mai 2023)
Hinzu kommt, dass von 24 Staaten polizeiliche oder regierungsnahe Organisationen das amerikanische Gesichtserkennungs-Tool außerhalb der USA verwendeten. Darunter befinden sich Organe wie z.B. Universitäten, Polizeibehörden und auch Staatsanwälte. Nach Recherche von BuzzFeed wussten die Personen in Führungspositionen nicht, dass Angestellte dieses Tool im Einsatz hatten.
Im Februar 2021 entschied der Datenschutzbeauftragte Kanadas, dass Clearview „gegen Bundes- und Provinzgesetze zum Datenschutz verstoßen“ habe. Er riet dem Unternehmen, seine Dienste nicht mehr an kanadische Kunden anzubieten und alle zuvor gesammelten Bilder und biometrischen Daten von Kanadiern zu löschen.
Wie bereits zuvor beschrieben, bewegt sich das amerikanische Unternehmen Clearview AI mit seinen Diensten in einer rechtlichen Grauzone. Warum das Indexieren von so vielen „privaten“, besser gesagt „persönlichen“, Fotos nicht als illegal eingestuft wird, erörtern wir hier:
- Verwendung öffentlich zugänglicher Informationen
Clearview AI sammelt Bilder aus öffentlich zugänglichen Internetquellen. Das Unternehmen behauptet, dass es sich im Rahmen der Legalität bewegt, indem es Informationen nutzt, die bereits öffentlich zugänglich sind, obwohl diese Praxis Bedenken hinsichtlich des Datenschutzes aufgeworfen hat.
- Fehlen umfassender Regulierungen die Gesichtserkennung betreffend:
Als Clearview AI bekannt wurde, gab es in vielen Ländern keine spezifischen Gesetze zum Einsatz der Gesichtserkennungstechnologie. Es war schwierig, Clearview AI endgültig als illegal einzustufen, weil es keine klaren rechtlichen Rahmenbedingungen für diese Technologie gab. - Partnerschaften mit Strafverfolgungsbehörden
Clearview AI ging Partnerschaften mit Strafverfolgungsbehörden ein, die lokale Behörden in einigen Fällen als legal betrachtet haben. Die Strafverfolgungsbehörden behaupten, dass Gesichtserkennungstechnologie ein nützliches Werkzeug sein kann, um Personen bei strafrechtlichen Ermittlungen zu identifizieren und zu lokalisieren. - Anhaltende rechtliche Herausforderungen:
Während Clearview AI mit rechtlichen Herausforderungen, Klagen und behördlicher Prüfung konfrontiert wurde, sind die rechtlichen Verfahren noch nicht abgeschlossen. Bis ein Gericht oder eine Aufsichtsbehörde ein bestimmtes Urteil fällt oder ein Gesetz erlassen wird, bleibt der rechtliche Status von Clearview AI im Fluss. - Gedanken zum First Amendment:
Clearview AI hat behauptet, dass die Verwendung öffentlicher Bilder für die Gesichtserkennung unter die Rechte des First Amendments fällt und dass die Sammlung und Analyse öffentlich zugänglicher Informationen geschützte Tätigkeiten sind.
Gesichtserkennung im Russland-Ukraine Krieg
Seit Mitte März 2022 benutzt die Ukraine die Clearview AI App, um russische Gefallene zu identifizieren. Die Implementierung erfolgte sehr rasch: erst zu Beginn des Monats wurde die Ukraine auf das Tool aufmerksam und der CEO bot der Ukraine an, Clearview AI gratis zur Verfügung zu stellen. Dies wurde bis Mitte März 2022 auch umgesetzt und dankend von den ukrainischen Politikern angenommen.
Mittels eines Smartphones wird das Gesicht des Gefallenen fotografiert und das Foto dann gleich in die Datenbank eingespeist. Innerhalb kurzer Zeit verknüpft die künstliche Intelligenz Gesichtsmerkmale mit den bereits vorhandenen Fotos aus der Datenbank und identifiziert den verstorbenen Soldaten. Danach werden die Familienangehörige des russischen Soldaten kontaktiert, um ihnen mitzuteilen, dass derjenige nun gefallen sei. Angeblich sei die Nummer der dadurch identifizierten Personen sehr hoch. Diese Informationen teilte Mykhailo Fedorov, Ukraines Vize Premierminister, mit Reuters im März 2022. Manche Experten sprechen durch die Verwendung von solchen Apps von Elektronischer Kampfführung, da sich Soldaten aktiv mit der Hilfe von KI an der EK beteiligen. Mehr zur elektronischen Kampfführung können Sie in unserem Blog „Elektronische Kampfführung“ lesen.
Cybersicherheit in der Ukraine
Die Ukrainian Cyber Alliance (UCA) und andere IT-Experten führten Ende 2017 eine zweimonatige Untersuchung durch, um das Schutzniveau der ukrainischen öffentlichen Ressourcen zu bewerten, ob Beamte mit der IT-Sicherheit verantwortungsvoll umgehen. Es wurden viele Schwachstellen in den Informationssystemen der Regierung entdeckt. Die Aktivisten meldeten diese Schwachstellen offen a diejenigen, die ihre Daten (durch z.B. Schwache Passwörter oder fehlende Updates) in Gefahr bringen. Die Aktivisten bemerkten, dass das „public shaming“ der öffentlichen Behörden die effektivste Methode war, Aufmerksamkeit zu generieren. Beispielsweise wurde festgestellt, dass ohne ein Passwort auf den Computer der Hauptdirektion der Nationalen Polizei in der Region Kiew zugegriffen wurde, und dass ein Netzlaufwerk mit 150 GB an Informationen, darunter Passwörter, Pläne, Protokolle und persönliche Daten von Polizisten, gefunden wurde.
In einem öffentlichen Dokument der European Media Platform „What’s wrong with Diia„, an welchem auch Mitglieder der UCA arbeiteten, wird die staatliche App Diia in 22 Punkten scharf kritisiert. Die App „Diia“ wurde 2020 eingeführt und ermöglicht ukrainischen Bürgerinnen und Bürgern, digitale Dokumente auf ihren Smartphones anstelle von physischen Dokumenten zur Identifizierung und zum Austausch zu verwenden. Es werden einige Sicherheitslücken kritisiert, darunter z.B. dass der Zugangs-PIN disabled werden kann oder manche ältere Personen 1111 als PIN verwenden, da sie komplexere PINs nicht gewohnt sind. Diese kleine Sicherheitslücken stellen mitunter eine große Gefahr für persönliche Daten dar.
Fazit
Clearview AI bringt viele Vorteile hinsichtlich Strafverfolgungen und Identifikationen von Personen, wenn das menschliche Auge versagt. Sehr leicht können solche Datenbanken den falschen Personen in die Hände geraten und damit die Daten für bösartige Absichten verwendet werden. Deshalb muss weiterhin der Datenschutz im Vordergrund stehen – es liegt in den Händen der jeweiligen Staaten mit den Regulierungen und Gesetzen für Gesichtserkennungssoftwares nachzuziehen.