Fehlerhafte AlgorithmenTwitter verspricht, sein Rassismusproblem zu lösen
Ein Nutzer hat nachgewiesen, dass Twitters Algorithmen weisse Gesichter bevorzugt behandeln. Das Unternehmen gelobt Besserung – und es wird sich ohne Zweifel auf dieses Versprechen behaften lassen müssen.
![Mit der Auswahl eines weissen und eines schwarzen Gesichts hält Twitter das weisse für interessanter.](https://cdn.unitycms.io/images/1UUqaXVGqOA8w2XIfX-uvW.png?op=ocroped&val=1200,800,1000,1000,0,0&sum=iJ_abd6Fg4A)
Verwendet Twitter rassistische Algorithmen? Ein Nutzer hat mit einem aufschlussreichen Experiment eine Diskussion zu dieser Frage provoziert. Ein Softwareentwickler namens Tony Arcieri – @bascule auf Twitter – hat ein hochformatiges Bild bei Twitter veröffentlicht, das am oberen Ende ein Porträt des republikanischen Fraktionsvorsitzenden Mitch McConnell und am unteren Ende den ehemaligen US-Präsidenten Barack Obama zeigt.
Für solche Bilder mit aussergewöhnlichen Formaten verwendet Twitter einen Algorithmus, der für die Voransicht den interessantesten Teil des Bildes auswählt. Das Bild als Ganzes gibt es erst zu sehen, wenn es angeklickt wird. Der Befund war, dass der Algorithmus den weisshäutigen McConnell auswählte – nicht den dunkelhäutigen Obama.
Hier wird Inhalt angezeigt, der zusätzliche Cookies setzt.
An dieser Stelle finden Sie einen ergänzenden externen Inhalt. Falls Sie damit einverstanden sind, dass Cookies von externen Anbietern gesetzt und dadurch personenbezogene Daten an externe Anbieter übermittelt werden, können Sie alle Cookies zulassen und externe Inhalte direkt anzeigen.
Nun könnte man denken, dass der Algorithmus das Bild von oben nach unten analysiert, wie es ein menschlicher Betrachter tun würde. Allerdings ergibt ein Test mit vertauschten Positionen das gleiche Resultat. Und noch schlimmer: Mit invertierten Farben erscheint plötzlich Obama in der Voransicht. Diese Bearbeitung hat zur Folge, dass wie bei einem Fotonegativ Obamas Haut heller ist als die von McConnell.
Arcieri nennt das einen rassistischen Algorithmus. Und er prangert das an mit dem Verweis, wie dunkelhäutige Menschen im Alltag durch Algorithmen direkt und mit viel weitreichenderen Folgen benachteiligt werden: «Nature» hat im Oktober eine Studie veröffentlicht, in der eine Software untersucht wurde, die in US-Krankenhäusern zur Zuteilung medizinischer Leistungen benutzt wird. Der Befund: Schwarze Patienten würden systematisch diskriminiert.
Fragwürdige Gesichtserkennung
Erwiesen ist auch, dass die Fehler bei der Gesichtserkennung bei Schwarzen und bei Menschen mit asiatischen Gesichtszügen häufiger sind als bei weissen Menschen. Solche Software wird von Polizei und Strafverfolgungsbehörden verwendet und führt unweigerlich zu falschen Beschuldigungen. Microsoft und Amazon, die solche Produkte entwickeln, stellen sie den Behörden nicht mehr zur Verfügung.
Den Algorithmen Rassismus zu unterstellen, wäre zu kurz gegriffen. Die verzerrten Ergebnisse entstehen bei der Implementierung der Systeme: Systeme, die auf maschinellem Lernen basieren, werden anhand von Referenzdaten trainiert: Wenn ein Algorithmus zur Bildbeurteilung mit einer Datenbank gefüttert wird, in der weisse Männer übervertreten sind, dann wird er diese hinterher besser unterscheiden können.
Hier wird Inhalt angezeigt, der zusätzliche Cookies setzt.
An dieser Stelle finden Sie einen ergänzenden externen Inhalt. Falls Sie damit einverstanden sind, dass Cookies von externen Anbietern gesetzt und dadurch personenbezogene Daten an externe Anbieter übermittelt werden, können Sie alle Cookies zulassen und externe Inhalte direkt anzeigen.
In die Diskussion, die nach Arcieris Experiment entstanden ist, haben sich auch zwei Twitter-Manager eingeschaltet. Designchef Dantley fand klare Worte: «Das ist hundertprozentig unser Fehler. Niemand sollte etwas anderes behaupten. Der nächste Schritt ist jetzt, es zu reparieren.» Technikchef Parag Agrawal schrieb seinerseits, er schätze diese rigorose öffentliche Aufsicht durch die Nutzer – und versprach, man werde Lehren ziehen.
Und ja: Die Voreingenommenheit bei solchen Algorithmen ist störend. Doch sie basiert, anders als bei Alltagsrassismus, nicht auf überlieferten Gewohnheiten, sondern auf Mängel bei der Implementierung. Die sind behebbar. Und vor allem zeigen sie Vorurteile auf, die selbst in einem Unternehmen wie Twitter auftreten, das ethnische Vielfalt und Integration als höchste Firmentugenden benennt. Doch wegen der Algorithmen kann die Öffentlichkeit das Unternehmen auf diese Werte behaften – und wird das auch tun. Twitter hat keine andere Wahl, als die Lehren auch wirklich zu ziehen.
Fehler gefunden?Jetzt melden.