Drücken Sie „Enter“, um den Inhalte zu überspringen

Ethik der Biometrie: Microsoft gesteht Missbrauchsgefahr von Gesichtserkennung ein

Dieser Artikel stammt von Netzpolitik.org.Der Autor ist...
Zwar geben große Tech-Konzerne wie Microsoft, IBM und Amazon an, die Gesichtserkennungstechnologie ethisch zu problematisieren. Für ausgewählte Kund:innen besteht das Angebot jedoch weiterhin. – Alle Rechte vorbehalten IMAGO / Jochen TackMicrosoft will vorerst keine Tools mehr anbieten, die automatisiert Geschlecht, Alter und den emotionalen Ausdruck von Gesichtern erkennen sollen. Der Software-Riese will künftig „verantwortungsvoll“ mit Künstlicher Intelligenz (KI) umgehen, gab das Unternehmen letzte Woche bekannt.
Schon länger machen Aktivist:innen und Akademiker:innen auf die Gefahren der Gesichtserkennungstechnologie aufmerksam. Denn sie greift Grundrechte an, vor allem dann, wenn sie zur Überwachung und in der Strafverfolgung eingesetzt wird.
Mit dem Schritt, das Angebot einzustellen und bis Ende des Jahres auslaufen zu lassen, reagiert Microsoft auf bevorstehende Regulierung sowie auf die Kritik an der Gesichtserkennungstechnologie. In den USA wurde diese zuletzt im Jahr 2020 besonders laut, als die Polizei friedliche Proteste gegen Rassismus und Polizeigewalt radikal niederschlug. Daraufhin standen große Technologiekonzerne wie IBM, Amazon und Microsoft unter dem Druck einer großen Öffentlichkeit.
Während IBM in einem öffentlichen Brief an den Kongress erklärte, seinen Dienst zur Gesichtserkennung einstellen zu wollen, reagierten Microsoft und Amazon mit einem Moratorium. Sie setzten den Verkauf ihrer Produkte zur Gesichtserkennung an Strafverfolgungsbehörden zunächst für ein Jahr und schließlich bis auf Weiteres aus.
Microsoft gibt sich Regeln
In einem 27-seitigen Dokument zum verantwortungsvollen Umgang mit Künstlicher Intelligenz („Responsible AI Standard“) legt Microsoft nun offen, an welche selbsterstellten Regeln sich der Konzern künftig halten will. So dürfe die Technologie nur so eingesetzt werden, um tatsächlich Probleme zu lösen, für deren Lösung sie entworfen wurde. Zudem müsse sie eine vergleichbare Qualität bei der Erkennung demografischer Gruppen aufweisen, „einschließlich marginalisierter Gruppen“. Schon in der Vergangenheit hatten Untersuchungen wiederholt nachgewiesen, dass die Fehlerquote solcher Systeme erschreckend hoch liegt.
Das Papier ist das Ergebnis einer zweijährigen Prüfung durch ein Expert:innen-Team. Dieses hatte untersucht, wie sich die schädliche Anwendung der Technologie vermeiden lasse. Vor allem bei der Emotionserkennung fehle ein wissenschaftlicher Konsens, schreibt Microsoft. „Es gibt enorme kulturelle, geografische und individuelle Unterschiede in der Art und Weise, wie wir uns ausdrücken“, sagte die verantwortliche KI-Beauftragte, Natasha Crampton der New York Times. Auch die Frage, ob „der Gesichtsausdruck ein zuverlässiger Indikator für den inneren emotionalen Zustand“ sei, habe Zweifel am Produkt hervorgerufen.
Indes behält Microsoft Gesichtserkennungssoftware weiterhin im Angebot. Potenzielle Kunden müssen sich jedoch um den Zugang bewerben. Dabei müssen sie eine Reihe an Vorgaben des Konzerns einhalten und etwa erklären, wie sie die Technologie einsetzen wollen.
Wachstum ohne Kontrolle
Generell rechnen Systeme zur Gesichtserkennung bestimmte Merkmale in einen biometrischen Datensatz um. Mit diesem digitalen Muster sollen anschließend die selben Eigenschaften in weiteren Bildern erkannt und der analysierten Person zugerechnet werden. Unterschieden wird zwischen zwei Anwendungsarten der Gesichtserkennungstechnologie.
Die sogenannte Eins-zu-eins-Verifikation wird beispielsweise in Apps eingesetzt, mit denen man sich auf einem Gerät anmeldet oder eine Bezahlung tätigt. Das Unternehmen Uber nutzt etwa Microsoft Gesichtserkennungstool, um zu prüfen, ob Fahrer:innen wirklich jene sind, die sie vorgeben zu sein. Die Eins-zu-viele-Identifikation wiederum soll unter anderem dabei helfen, große Mengen an Bildern zu systematisieren. Prominentestes Beispiel für diese Art der Anwendung ist die Strafverfolgung.
Der Einsatz der Technologie ist in den letzten Jahren rasant angewachsen. Zum einen liegt das an technologischen Fortschritten, zum anderen an der steigenden Nachfrage. Bislang wird die Technologie jedoch kaum kontrolliert oder reguliert, obwohl sie vor allem marginalisierte Gruppen in Gefahr bringt.
Fehleranfälligkeit und die verheerenden Folgen
Abgesehen davon, dass Gesichtserkennung die Anonymität abschafft, scheitert die Technik beharrlich an der zuverlässigen Bestimmung von Geschlecht und ethnischer Herkunft. Wie Joy Buolamwini vom MIT Media Lab in ihrer Studie Gender Shades herausstellt, funktionieren Gesichtserkennungssysteme nicht so akurat, wie beispielsweise Amazon seinen Kund:innen suggeriert. Sie testete 2018 Software von IBM, Microsoft und der chinesischen Firma Face++. Zwar erkannten alle Systeme besonders gut weiße Männer, versagten aber bei People of Color und hier besonders bei Frauen mit einer Fehlerquote von 30,3 Prozent.
Die höhere Fehlerquote bedeutet für People of Color ein großes Risiko. Denn ein falscher Treffer kann dazu führen, dass unschuldige Menschen überwacht oder festgenommen werden. In den USA gibt es dazu bereits mehrere Fälle. So wurde etwa Nijeer Parks beschuldigt, er habe Süßigkeiten gestohlen und versucht, einen Polizisten mit einem Auto umzufahren. Anhand des Bildes auf einem gefälschten Ausweis, den der Täter den Polizisten am Tatort ausgehändigt hatte, wurde Parks nach dem Abgleich mit einer Fahndungsdatenbank ermittelt. Und das, obwohl er zum Tatzeitpunkt rund 50 Kilometer vom Geschehen entfernt war. Parks saß daraufhin zehn Tage im Gefängnis und bezahlte 5.000 Dollar, um sich zu verteidigen. Aus Mangel an Beweisen wurde die Klage ein halbes Jahr später abgewiesen, doch der Schaden war bereits angerichtet.
Ethische Bedenken – aber nicht ganz so
Microsofts Entscheidung sei zu begrüßen, erklärt Ioannis Kouvakas von Privacy International gegenüber netzpolitik. Doch sei es wichtig, sich die Details genau anzuschauen. IBM beispielsweise stellte zwar den Verkauf von Gesichtserkennung ein. Im Schreiben an den US-Kongress heißt es: „IBM bietet keine IBM-Gesichtserkennungs- oder -analysesoftware für den allgemeinen Gebrauch mehr an.“ Der Knackpunkt liege aber, so Kouvakas, in der Formulierung „für den allgemeinen Gebrauch“. IBM ließ sich die Option offen, eigene Gesichtserkennungstechnologie für bestimmte Zwecke zu verkaufen und die von anderen Anbietern im Rahmen seines umfangreichen Beratungsgeschäfts weiterzuverkaufen.
Auch Amazon und Microsoft erkennen zwar die Missbrauchsgefahren an oder bangen, dass ihre Reputation Schaden nimmt, bieten aber weiterhin für ausgewählte Kund:innen Gesichtserkennungstools an. Wollten Microsoft und andere ein deutliches Zeichen gegen den Missbrauch setzen, „den sie Berichten zufolge über öffentlich-private Überwachungspartnerschaften (public private surveillance partnerships) unterstützt haben, dann müssen sie aufhören, sich auf die Entwicklung der neuesten Shiny Toys zu stürzen, die letztlich der Gesellschaft schadet und zu schweren Menschenrechtsverletzungen führen kann,“ so Kouvakas.
Dafür muss es Regulierung geben, damit der Schutz unserer Grundrechte nicht mehr „von der Entscheidung privater Anbieter*innen abhängig gemacht werden muss,“ sagt Angela Müller von AlgorithmWatch gegenüber netzpolitik. Das sei Sache des demokratischen Rechtsstaats. Dass Konzerne Verantwortung übernehmen, sei zwar willkommen, könne „aber gleichzeitig nicht die Lösung sein.“
Gesetze in der Mache
Regulierung strebt der derzeit verhandelte Artificial Intelligence Act (AI Act) der EU an. Es ist das erste Regelwerk seiner Art und findet daher international Beachtung, auch bei Microsoft. „Es ist eine entscheidende Zeit, in der Normen für Künstliche Intelligenz gesetzt werden“, verweist die Microsoft-Managerin Crampton auf das geplante EU-Gesetz. „Wir hoffen, unseren Standard nutzen zu können, um zu den notwendigen Diskussionen über die Standards beizutragen, an denen Tech-Unternehmen gemessen werden sollen“.
Der europäische AI Act kategorisiert die Risiken der missbräuchlichen Anwendung von KI, zum Beispiel in der Gesichtserkennung: nicht akzeptable, hohe und kleine oder vernachlässigbare. Abgesehen davon, dass diese Einstufung starr und ungenau formuliert ist, werden auch in diesem Regulierungsvorhaben Ausnahmen eingeräumt. Laut dem Vorschlag der EU-Kommission soll etwa Videoüberwachung mit automatisierter Gesichtserkennung im öffentlichen Raum möglich sein, wenn Täter:innen per europäischem Haftbefehl gesucht werden. Das EU-Parlament hat sich hingegen für ein Verbot automatisierter Gesichtserkennung ausgesprochen.
Während sich die Großen teilweise aus dem Geschäft zurückziehen und darauf setzen, nur geprüfte Kund:innen zuzulassen, stürzen sich kleinere Unternehmen auf den Markt, darunter die umstrittenen Unternehmen PimEyes oder ClearView AI. Diese sehen dabei gern über die ethischen wie auch die technischen Hürden hinweg. Zwar müssten sie dabei „Reputationsrisiken“ in Kauf nehmen, sagt Müller von AlgorithmWatch. Da aber die Entwicklung und der Vertrieb von solchen Technologien weitgehend intransparent passiere und selten ans Licht der Öffentlichkeit gelange, gebe es „kaum eine Möglichkeit Kontrolle auszuüben und abzuschätzen, welche Technologien wo, von wem und wozu eingesetzt werden – und was das für uns für Folgen haben kann.“
Diese Intransparenz sei für andere Anbieter:innen fürs Geschäft optimal. Solange es keine verlässlichen Rahmenbedingungen gebe, wie und wo biometrische Erkennungssysteme eingesetzt werden dürfen – und wo es Grenzen gibt –, „sind wir weiterhin den Entscheidungen und Erwägungen der Anbieter*innen sowie jener öffentlichen und privaten Stellen, die die Systeme dann einsetzen, ausgeliefert“, sagt Müller.

Auch ein interessanter Artikel:  Gesichtserkennung und Bewegungsprofil: Großbritannien will ausländische Straftäter:innen mit Smartwatches überwachen

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Esther Menhard

Adblock Detected

Bitte unterstützen Sie uns, indem Sie Ihren Werbeblocker deaktivieren.

Refresh Page
Mastodon

Friends: studiocut.net - Crypto lake - Cypher armz