Die Techbranche hat ein Rassismusproblem.

July 10, 2020

Rassismus darf nicht in großen Technologien unserer Zeit fortgesetzt werden. Dass wir bessere regulatorische Rahmenbedingungen brauchen, haben nun endlich auch die großen Tech-Unternehmen begriffen und handeln dementsprechend - allen voran IBM.

Die Techbranche hat ein Rassismusproblem.

IBM stärkt BLM-Bewegung durch neuen Beschluss massiv

Die Megatrends Blockchain, KI, AR/VR haben bereits schon eindrucksvolle Anwendungsbeispiele in der echten Welt hinter sich. In dieser vernetzten Welt, können wir mithilfe von AR/VR in eine eigene Welt eintauchen und Konferenzen über die Oculus mitverfolgen, oder wir können mithilfe von KI und Blockchain unsere Produktionsprozesse transparenter machen. Es scheint eine schier unendlich große Vielfalt an Anwendungsbeispielen zu geben, die sich mithilfe der neuesten Techtrends gestalten lassen. Die Frage drängt sich immer mehr auf: Wie können wir Technologie für Gutes einsetzen bzw. wie sollten wir Technologie entwickeln, damit sie nichts Böses anstellt? Diese und andere Fragen durfte ich in einer bunten Paneldiskussion bei IBM bei der TEC Technology Summit 2020 remote besprechen. Die ganze Diskussion, die im Rahmen von Tag 1: Digitale Transformation am 17. Juni stattgefunden hat, könnt ihr euch auch hier noch mal anschauen. Unter anderem waren mit dabei: Dr. Alexander Jüngling LL.M. (Chicago), Rechtsanwalt, Dr.-Ing. Dr.med.univ. Johannes Starlinger, Digital Health Consultant bei starlinger+ digital health architects, Dr. Juan Bernabe Moreno, E.ON Global Chief Data Officer sowie Petra Bührer, Chair TEC DACH bei IBM und Thomas Harrer, CTO HW Sales, Europe bei IBM.

Verschiedenste Themen wurden bei der Paneldiskussion angeschnitten, so hat Dr. Juan Bernabe Moreno, Global Chief Data Officer von E.ON, über das Big Data-Ethik geredet und meine Wenigkeit über die Relevanz einer Tech for Future- Bewegung. Es wurden verschiedene Möglichkeiten besprochen, wie man Technologie für gute Dinge einsetzen konnte - dabei ist mir eine ins Auge gestochen. Dr. Alexander Jüngling LL.M. (Chicago), Rechtsanwalt, thematisierte die zunehmende Relevanz für eine stärkere ethische und rechtliche Prüfung von Technologien wie Künstliche Intelligenz in Strafverfolgungsbehörden. 

Nehmen wir ein bestimmtesn Beispiel, das erst letztens auf in meinen Twitter-Newsfeed von Edward Snowden geteilt wurde, der vor allem als Whistleblower in den USA bekannt wurde und seither über Privatsphäre und Sicherheit im Netz spricht und schreibt. In dem Post geht es darum, dass erstmals ist in den USA ein Fall bekannt geworden ist, in dem eine Fehlidentifikation per Gesichtserkennung einen Afroamerikaner in Polizeigewahrsam brachte. Der Grund? Der Afroamerikaner Robert Williams wurde fälschlicherweise von einer Software identifiziert, die nach einem Mann suchte, der zuvor mehrere Uhren aus einem lokalen Geschäft gestohlen hatte. Das Ergebnis der Software war für die Polizei in Detroit Grund genug Robert Williams vor den Augen seiner Familie in Gewahrsam zu nehmen und ohne Weiteres sofort zu verhaften. Zwei Dinge führten dazu, dass ein unschuldiger Mann verhaftet wurde: 1. Die Beamten verließen sich einzig und allein auf das Ergebnis der Software und werteten das Ergebnis als einen Beweis für seine Tat. 2. Die Technologie wurde nicht wissenschaftlich überprüft, funktionierte fehlerhaft und kam dennoch zum Einsatz. Hätte man breit genug getestet, hätten Experten wohl gemerkt, dass die maschinelle Gesichtserkennung derzeit am besten funktioniert, wenn es um das Erkennen weißer Männer geht und der Algorithmus somit nicht neutral bzw. gut genug funktioniert, um bereits breit in der Öffentlichkeit eingesetzt zu werden bzw. um schwarze Gesichter gut genug voneinander zu differenzieren. In der Praxis bedeutet dies nämlich, dass jeder, der nicht weiß und männlich ist, viel eher verwechselt wird oder gänzlich unerkannt bleibt. 

Dieser Vorfall, der dramatische Tod von Georg Floyd und die weltweite Black Lives Matter-Bewegung rückte Rassismus und Polizeigewalt wieder zunehmend in den Mittelpunkt der öffentlichen Debatte. Die Verantwortung von Tech-Unternehmen und deren Implikation im Fall von Robert Williams wurde von Aktivisten thematisiert und konnte sich tatsächlich das Gehör von vielen großen Tech-Unternehmen verschaffen. 

Unter diesem Eindruck hatten zuletzt die Unternehmen IBM, Amazon und Microsoft verkündet, dass sie die Zusammenarbeit mit der Polizei in Sachen Gesichtserkennung zumindest für einen bestimmten Zeitraum unterbrechen. IBM steigt sogar ganz aus dem Geschäft aus, wie Dr. Alexander Jüngling im Rahmen der Konferenz verkündete. 

«IBM lehnt die Verwendung jeglicher Gesichtserkennungs-Technologie – einschliesslicheinschließlich der von anderen Anbietern – zum Zweck der Massenüberwachung, Racial Profiling, Verletzungen grundlegender Menschenrechte und Freiheiten sowie jeglichem Zweck, der nicht mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz vereinbar ist, entschieden ab»

,teilte der neue Unternehmenschef Arvind Krishna in einem Brief an den US-Kongress mit. Die Tatsache, dass IBM nun damit aufhört, das Produkt zu verkaufen, zu vermarkten oder zu aktualisieren, ist ein klarer Ruf für eine offene Diskussion, ob und wie Gesichtserkennung in Zukunft eingesetzt werden soll klare und bessere regulatorische Rahmenbedingen für Gesichtserkennungstechnologien weltweit. 

Es ist ein starker und entschiedener Schritt seitens IBM, den Markt in dieser heiß umkämpften Branche nicht zu bedienen, bis die Regeln sich nicht geändert haben. Damit werden auch Konkurrenten gezwungen, sich zu positionieren und zu rechtfertigen in ihrer Produktion und Weiterentwicklung von Gesichtserkennungssoftware zu rechtfertigen. Somit stärkt IBM massiv die Bürgerrechtsbewegung BLM, indem sie nicht mehr akzeptieren wollen, dass ihre Technologie für Massenüberwachung und rassistische Polizeiarbeit eingesetzt wird. 

Wir müssen uns ganz klar mit der Frage auseinandersetzen, wie wir diese mächtigen Techtrends in Zukunft nutzen wollen und welche Folgen unsere Entscheidungen haben. Denn Gesichtserkennung ist nicht die einzige Technologie, in der sich Rassismus fortsetzt. Auch Systeme von „Predictive Policing“, die die Wahrscheinlichkeit zukünftiger Straftaten analysieren, basieren auf Datensätzen, die bereits durch rassistische Vorurteile geprägt sind. Es darf in dieser Diskussion nicht nur um wirtschaftlichen Erfolg oder sogar um fehlerfreier Software gehen, sondern um grundlegende Fragen der Ethik und Gerechtigkeit. Denn auch wenn die Software noch so gut ist, müssen wir uns der Frage stellen, ob der Einsatz von KI - in den jeweiligen Anwendungsfällen - mit den Werten unserer freien Gesellschaft in Europa übereinstimmt. Möglicherweise sollten wir eigene europäische Standards formulieren und uns damit - ähnlich wie China - von den US-amerikanischen Standards lösen. Ich fordere ein stärkeres Eingreifen der Regierungen selbst. Diese müssen stärker reglementieren und Leitlinien für den Einsatz von KI vorgeben. Auch wenn IBM jetzt eindeutig den richtigen Schritt gemacht hat, sollten wir nicht darauf hoffen, dass weitere Tech-Unternehmen sich in kritischen Momenten selbst stoppen.