übertreib.bar
künstliche Klischees
»Ist das Zeitalter der Wahrheit vorbei?«, fragt Andre Wolf von Mimikama, dem Verein zur Aufklärung über Desinformation und Fake News. »Kann künftig jede noch so absurde Aussage glaubhaft visualisiert werden?« Er überlegt, an welcher Schwelle der Nutzung von KI-Technologien wir aktuell stehen. Noch seien KI-generierte Bilder gut erkennbar, beispielsweise an der Übertreibung: Da eine KI die Realität nicht kenne, könne sie nicht maßhalten und neige zu Bildern mit überzogenen Emotionen und dramatischen Gesten. Außerdem denke KI in Stereotypen, weil sie es so gelernt habe.
Die Darstellungen von typischen Menschen aus verschiedenen Ländern übertreffen jede Kitschpostkarte: Die Niederländerin steht mit Tulpen und Käse vor einer Windmühle, deutsche Männer fahren Auto und trinken Bier (gleichzeitig), der Inder reitet auf einem Elefanten und der Nigerianer trommelt. Das ist skurril aber folgenlos. Das österreichische Arbeitsamt setzte einen Chatbot für die Berufsberatung ein. Jungen Frauen und Männern schlägt die KI geschlechterstereotype Berufe vor. Das ist weniger folgenlos.
Die »Unstatistik des Monats« am Leibniz-Institut für Wirtschaftsforschung beschäftigt sich mit der Meldung, dass ein KI-Algorithmus aus Youtube-Sprachaufnahmen die Gesichter der Sprechenden rekonstruieren könne. »Erschreckend ist dabei in erster Linie die Überschätzung dessen, was ein solcher, schon 2019 erstmals vorgestellter Algorithmus wirklich leisten kann. Stutzig machen sollten dabei schon die rein qualitativen Aussagen, mit denen die Verfasser der Internet-Artikel die angebliche Präzision der KI-Anwendung beschreiben. So ist von ›überraschend hoher Ähnlichkeit‹ die Rede.«
Auch hier kommen Stereotype ins Spiel: »Je stärker Gesichter und Sprache einem Klischee von Alter, Geschlecht und Ethnizität entsprechen, umso ähnlicher erscheint das künstlich erzeugte Porträt. Wahre Identitäten kann der Algorithmus nicht entdecken oder gar rekonstruieren. Das zeigt sich sehr deutlich in den quantitativen Bewertungen, die die KI-Forscher vornehmen. Das Erkennen des Geschlechts einer Person aus dem Frequenzspektrum der Stimme ist ja relativ einfach, und so kann der Algorithmus 94 Prozent der Männer und Frauen ihrem wahren Geschlecht zuordnen. Doch zeigt der Algorithmus bei Alter und Ethnizität hohe Fehlerquoten.«
Der Fotograf Tom Smith vergleicht KI-Vorurteile mit menschlichen Vorurteilen: »In gewisser Weise ist das System also ein bisschen wie dein rassistischer Onkel. Es glaubt, dass es die Rasse oder den ethnischen Hintergrund einer Person immer daran erkennen kann, wie sie klingt – aber das ist oft falsch.«
Der Ökonom Thomas Bauer, der Psychologe Gerd Gigerenzer und der Statistiker Walter Krämer plädieren für eine statistische Grundbildung als Gegenmittel: »Es sind vielmehr Fragen, wie KI dazu beitragen kann, Stereotype zu konstruieren und damit Vorurteile über Menschen und schlimmstenfalls Diskriminierung zu verfestigen. Das zeigt eindringlich, dass Daten und Algorithmen nicht neutral sind und dass eine statistische Grundbildung unerlässlich ist, um die möglichen Auswirkungen solcher Analysen auf unser aller Leben zu verstehen und uns entsprechend selbstbestimmt zu verhalten. Insbesondere Journalistinnen und Journalisten sollten sich in Sachen Statistik-Kompetenz so weit fit machen, dass sie reflektiert und nicht derart kritiklos über solche KI-Anwendungen berichten.«