Die fortschreitende Algorithmisierung gesellschaftlicher Prozesse rückt Fragen nach den sozialen Implikationen Künstlicher Intelligenz (KI) zunehmend in den Fokus der Kommunikations- und Medienwissenschaft: Sie findet Einsatz als Unterstützung in der Bewertung von Bewerbungen, Entscheidung über Sozialleistungen und generiert in kurzer Zeit Texte, Bilder und Videos.
Vor diesem Hintergrund haben Doktorin Lina Brink (Hochschule Düsseldorf) und Professorin Elke Grittmann (Hochschule Magdeburg-Stendal) untersucht, wie deutsche Leitmedien soziale Ungleichheiten im Zusammenhang mit KI darstellen. Die Untersuchung analysiert auf Grundlage der Wissenssoziologischen Diskursanalyse (WDA) einen Korpus von rund 600 Beiträgen aus neun reichweitenstarken Print- und Onlinemedien, die zwischen Dezember 2022 und November 2023 erschienen.
Die Autorinnen fragen, inwieweit journalistische Diskurse soziale Differenz- und Machtverhältnisse im Kontext von KI sichtbar machen oder verdecken und welche Akteur*innen im Diskurs repräsentiert werden. Sie kommen zu dem Ergebnis, dass die Berichterstattung soziale Folgen von KI zwar zunehmend aufgreift, jedoch primär eindimensional bleibe. Thematisiert würden vor allem Formen von Gender- und Race-basierte-Diskriminierung, während andere Differenzkategorien wie Klasse, Alter, Behinderung oder globale Ungleichheitsverhältnisse weitgehend ausgeblendet blieben. Der Begriff Diversität erscheint in den untersuchten Medienbeiträgen selten und werde häufig kritisch kontextualisiert – etwa als Teil symbolischer Unternehmenskommunikation. Eine intersektionale Perspektive, die die Verwobenheit mehrerer Ungleichheitskategorien berücksichtigt, finde in der journalistischen Berichterstattung dagegen kaum Anwendung, so eine Beobachtung der Forscherinnen.
Die mediale Problematisierung richte sich in erster Linie auf den Mangel an Diversität in der KI-Entwicklung, auf einseitige Trainingsdaten sowie auf die Reproduktion bestehender gesellschaftlicher Machtstrukturen durch algorithmische Systeme. Insbesondere generative KI werde in journalistischen Diskursen als Faktor diskriminierender Verzerrungen beschrieben, etwa durch stereotype, sexualisierte oder „weiße“ Repräsentationen in Text- und Bildgeneratoren. Ökonomische Dimensionen – wie die Konzentration technologischer Profite, Arbeitsverlagerungen oder prekäre Beschäftigung in globalen Wertschöpfungsketten – würden hingegen meist nur am Rande behandelt und selten in größere gesellschaftstheoretische Zusammenhänge eingebettet, so Brick und Grittmann.
Zudem zeige der journalistische KI-Diskurs eine deutliche Elitenzentrierung: Sprechendenpositionen seien überwiegend von politischen und wirtschaftlichen Akteur*innen besetzt, während direkt Betroffene weitgehend ausgeblendet blieben. In Beiträgen, die soziale Ungleichheiten thematisieren, treten häufig Wissenschaftler*innen und zivilgesellschaftliche Organisationen als kritische Stimmen auf.
Brink und Grittmann argumentieren abschließend, dass journalistische Medien bislang jedoch vor allem normativ-moralisch über KI berichten, es ergebe sich hier ein blinder Fleck der technologische Innovationen als gesellschaftlich „neutral“ oder „objektiv“ zu rahmen. Eine vertiefte Analyse sozialer Differenzen und ihrer Verwobenheiten, so die Forscherinnen, könne dagegen zu einer kritischeren, diversitätssensiblen journalistischen Praxis führen und den öffentlichen Diskurses über KI erweitern. Die volle Studie „Diversität in der Berichterstattung über die sozialen Folgen Künstlicher Intelligenz: Eine intersektionale Diskursanalyse“ (2025) ist als Open-Access-Text verfügbar und wurde in der aktuellen Ausgabe von „M&K Medien & Kommunikationswissenschaft“ (Jahrgang 73: 2025; Heft 3) veröffentlicht.
/ Tim Breuer