Gesichtserkennung durch künstliche Intelligenz – die Tücken

In den USA werden nach Angaben der „FAZ“ jedes Jahr fast 20 Milliarden Euro in künstliche Intelligenz (KI) gesteckt. In Europa sind es hingegen nur 3 Milliarden Euro. Obwohl KI für Deutschland und andere Industrieländer wichtig ist, wird die Entwicklung in Europa längst nicht so forciert wie in den USA oder China. Der Grund dafür ist zum einen in der Angst vor einer Fremdbestimmtheit durch Maschinen zu suchen und zum anderen vor der Sorge des Missbrauchs der KI.

Folglich will die EU-Kommission neue Regeln zum nichtmilitärischen Umgang mit KI durchbringen, die auf eines hinarbeiten: mehr Vertrauen für diese Technologien zu schaffen. Einige wenige KI-gestützte Anwendungen sollen auch demnach verboten werden, beispielsweise wahl- und anlasslose Überwachungen. Grundsätzlich ist dadurch auch der Einsatz von Gesichtserkennungssoftware im öffentlichen Raum gemeint. Tatsächlich soll es dazu aber Ausnahmen geben. So könnte die Gesichtserkennung im öffentlichen Raum beispielsweise eingesetzt werden, um nach vermissten Personen zu suchen oder bei der Fahndung von Verbrechern zu unterstützen.

Digitale Gesichtserkennung zum Identifizieren von Personen ist in anderen Teilen der Welt schon längst gang und gäbe und zugleich deutlich weniger reguliert. Was folgen kann, ist aus den menschlichen Gesichtern mithilfe von KI-Software und einem entsprechenden Algorithmus Emotionen aus ihnen herauszulesen. Vor wenigen Jahren wurde bekannt, dass eine chinesisch-australische Forschergruppe ein Programm entwickelt hat, das auf die Identifikation der Uiguren trainiert worden war. Die Kritik damals war international sehr groß. Und doch muss mittlerweile davon ausgegangen werden, „dass Techniken des automatisierten ‚racial profiling‘ von Peking inzwischen eingesetzt werden“, schreibt die „FAZ“.

Bekannt für die Spezialisierung auf Gesichtserkennung ist unter anderem das chinesische Unternehmen Taigusys. Es sieht die Technologie als absoluten Segen, mit der Kriminelle aufgespürt, Demente aus Altenheimen wieder aufgefunden und gefährliches Verhalten vorausgesagt werden könne. In mehr als dreihundert Gefängnissen soll die Taigusys-Technik verbaut sein und durch die Rund-um-die-Uhr-Überwachung Suizide verhindern.

Doch nicht nur China ist weit vorne, wenn es um die intensive Überwachung durch Gesichtserkennung geht. Vom indischen Lucknow wurde vergangenes Jahr bekannt, dass an den Plätzen, wo Frauen besonders oft sexueller Belästigungen ausgesetzt sind, KI-Systeme mit gekoppelten Überwachungskameras eingesetzt werden sollen. Kritiker mahnen an, Frauen würden so nicht geschützt, sondern überwacht.

Insgesamt sehen Kritiker in der Gesichtserkennung die Gefahr, dass die Systeme der Komplexität der menschlichen Emotionen gar nicht gerecht werden können. Somit sind sie nutzlos, was eine vermeintlich gute Absicht anbelangt. Wenn schon Menschen mitunter Probleme haben, ihr Gegenüber mit seinen Emotionen einzuschätzen, wie soll es dann erst – von Menschen geschulten – Maschinen gelingen?

Das AI Now Institute der New York University kommt zu dem Fazit, dass Emotionserkennungssysteme immer dann verboten werden sollten, wenn es um wichtige Entscheidungen für Menschen geht.

Unsere Rednerinnen und Redner bieten Ihnen auf Ihren Veranstaltungen spannende Einblicke in die Themen künstliche Intelligenz und digitale Ethik.

Daniel Domscheit-Berg
ehemaliger Sprecher von WikiLeaks & Internetaktivist

Marco Gercke
Direktor des Cybercrime Research Institute

Sascha Lobo
Autor, Blogger, Internet-Unternehmer und Strategieberater

 

Quelle: Frankfurter Allgemeine Zeitung