Rassistische Bildvorschau: Twitter-Algorithmus bevorzugt offenbar weiße Menschen

Soziale Medien

Wird bei Twitter ein Foto gepostet, entscheidet Künstliche Intelligenz darüber, welcher Teil des Bildes für die Vorschau interessant ist. Behandelt der Algorithmus hierbei alle gleich?

Hannover

22.09.2020, 05:00 Uhr / Lesedauer: 3 min
Der Algorithmus von Twitter sorgt für Diskussionen.

Der Algorithmus von Twitter sorgt für Diskussionen. © picture alliance/dpa

Hat der Twitter-Algorithmus ein Rassismus-Problem? Das zumindest legen Experimente von Twitter-Nutzern nahe, die seit dem Wochenende auf der Plattform veröffentlicht wurden.

Konkret geht es um die Bilder-Vorschau auf der Plattform. Postet man dort ein Foto, das nicht den Standard-Maßen des Netzwerks entspricht (zum Beispiel ein Hochformat), so wird dieses zugeschnitten. Die künstliche Intelligenz der Plattform entschiedet dann, welcher Teil des Bildes für die Querformat-Vorschau besonders interessant ist. Und hier beginnt das Problem.

Algorithmus bevorzugt weiße Menschen

Der Twitter-Nutzer @bascule hat nämlich festgestellt: Sind auf einem Hochformat-Bild ein weißer und ein schwarzer Mensch abgebildet, so entscheidet sich der Algorithmus in der Vorschau verlässlich für den weißen. Um das zu verdeutlichen, twitterte @bascule ein vertikales Foto, auf dem am oberen Rand der Republikaner Mitch McConnell abgebildet ist - am unteren Rand ist der ehemalige US-Präsident Barack Obama zu sehen. Das Ergebnis: In der Twitter-Vorschau wird nur Mitch McConnell angezeigt.

In einem zweiten Versuch vertauschte @bascule die Anordnung der Bilder. Diesmal setzte er Obama an den oberen Bildrand und McConnell an den unteren. Gebracht hat das nichts: Wieder ist auf dem Vorschau-Bild nur McConnell zu sehen.

In einem weiteren Versuch änderte der Twitter-Nutzer die Farben der Krawatten. Auch davon ließ sich die Künstliche Intelligenz der Plattform nicht irritieren: Wieder ist McConnell in der Vorschau zu sehen und nicht Obama.

Einzig das Invertieren der Bildfarben sorgte für ein kleines Erfolgserlebnis: Auf einem Bild schaffte es tatsächlich Obama in die Vorschau - auf dem anderen ist jedoch wieder McConnell zu sehen.

Andere Tests, das selbe Problem

Das öffentliche Experiment zog schnell Aufmerksamkeit auf sich - und weitere Tests folgten. Der IT-Spezialist Graham Christensen twitterte gleich vier verschiedene Fotos mit unterschiedlichen Hintergründen. Bei jedem einzelnen taucht nur die weiße Person in der Twitter-Vorschau auf.

Jordan Simonovski bemerkte sogar, dass der Algorithmus selbst bei Simpsons-Figuren so reagiert. Statt dem schwarzen Carl Carlsson zeigt die Twitter-Vorschau stets den gelben Lenny Leonard.



Was Twitter zum Problem sagt

Twitter selbst reagierte am Sonntag umgehend auf die Problematik. „Unser Team hat vor dem Launch der Funktion auf Voreingenommenheit getestet und bei unseren Tests keine Hinweise auf rassistische oder geschlechtsspezifische Voreingenommenheit gefunden“, schrieb Liz Kelly, Mitglied des Twitter-Kommunikationsteams. „Aus diesen Beispielen geht jedoch klar hervor, dass wir weitere Analysen durchführen müssen. Wir prüfen dies und werden mitteilen, was wir lernen und welche Maßnahmen wir ergreifen.“

Dantley Davis, Chief Design Officer von Twitter, mischte sich ebenfalls in die Diskussion ein. Er postete das Bild einer schwarzen und weißen Person, die in diesem Fall die selbe Anzugfarbe tragen, zudem wurden ihre Hände vom Bildrand abgeschnitten. In diesem Fall entschied sich der Twitter-Algorithmus für die schwarze Person. Die Funktion wolle man weiter untersuchen, so Davis.

Die Vorschau-Funktion der Plattform basiert auf einem sogenannten Künstlichen Neuronalen Netz (KNN), eine Form der Künstlichen Inteligenz, die in weiten Teilen dem menschlichen Gehirn nachempfunden ist. Im Jahr 2018 veröffentlichte Twitter einen Blog-Beitrag, in dem erläutert wird, wie die Funktion funktioniert. Einer der Faktoren, die das System veranlassen, einen Teil eines Bildes auszuwählen, sind etwa höhere Kontraststufen. Dies könnte auch erklären, warum die Vorschau weiße Gesichter zu bevorzugen scheint.

Nicht der erste Fall dieser Art

Das Diskriminierungs-Problem bei der Bilderkennung ist derweil gar nicht so neu - und sie kommt auch bei Behörden vor. In Neuseeland etwa lehnte eine Software zur Bilderkennung fälschlicherweise das Passfoto eines Mannes ab, der in Taiwan geboren wurde. Der Grund: Angeblich hatte der Mann auf dem Foto die Augen geschlossen. In den USA prognostiziert ein Algorithmus Menschen mit dunklen Hautfarben ein höheres Risiko, künftig Verbrechen zu begehen. Die Software soll Richterinnen und Richtern bei der Urteilsfindung helfen.

In der Tech-Branche sorgte zuletzt ein ein Recruiting-Tool bei Amazon für Aufsehen. Die Software schlug auf Basis von Machine Learning systematisch Männer als geeignetere Kandidaten vor. Das AI Now Institute mahnt in einer Studie aus dem vergangenen Jahr, Entwicklerteams von Künstlicher Intelligenz zwingend vielfältiger zu besetzen, um solche Fehler künftig zu vermeiden.

Liegt wirklich Voreingenommenheit vor?

Auf Twitter hatten die Experimente mit dem Problem eines Nutzers begonnen, dessen schwarzer Kollege sich darüber wunderte, dass der Zoom-Videochat beim Einfügen eines Hintergrundes sein Gesicht nicht erkennt. Der Nutzer veröffentlichte daraufhin ein Beispielfoto der beiden Beiteiligten - in der Twitter-Vorschau war ebenfalls nur das Gesicht des weißen Kollegen zu sehen.

Die Tech-Autorin Rachel Kraus weist in einem Text des Branchenmagazins Mashable darauf hin, dass der Twitter-Algorithmus nicht zwingend mit Rassismus zu tun haben muss. „Es ist problematisch, anhand einiger Beispiele von Voreingenommenheit zu sprechen. Um die Verzerrung wirklich beurteilen zu können, ist eine größere Stichprobe mit mehreren Beispielen unter verschiedenen Umständen nötig“, schreibt die Autorin. Die Vorschau-Funktion sei aber dennoch einen Blick wert und könnte auch ein Beispiel für algorithmische Verzerrung sein.

Lesen Sie jetzt

Als ein Malaysier aufwacht, ist sein Smartphone weg. Er findet sein Handy im Regenwald wieder. Ein Blick in die Galerie verrät den Dieb: Diese ist voller Selfies und Videos eines Affen.