11. November 2024 Jennifer Eickelmann
‚Künstliche Intelligenz‘ ist allgegenwärtig. Doch was meint hier ‚künstlich‘ und was ‚intelligent‘? In ihrem Atlas der KI macht Kate Crawford unmissverständlich deutlich: KI ist weder künstlich noch intelligent. Wenn künstlich bedeutet, losgelöst von Körpern und natürlichen Ressourcen und in diesem Sinne ‚rein technisch‘ zu sein, dann kann KI nicht künstlich sein. Denn maschinelles Lernen ist in vielerlei Hinsicht abhängig – z. B. von natürlichen Rohstoffen, historisch bedingtem Wissen und menschlicher Arbeitskraft. Und wenn intelligent bedeutet, aus sich heraus intelligent oder gar rational zu sein, dann kann KI nicht intelligent sein. Denn maschinelles Lernen ist außerdem angewiesen auf umfangreiche Datensätze und rechenintensives Training. Dabei stellen sie sich allzu oft tatsächlich als so ziemlich das Gegenteil von ‚intelligent‘ heraus, sofern man dieses Wort überhaupt bemühen möchte. So beispielsweise, wenn ‚die KI‘ auf Grundlage eines einseitig trainierten Datensatzes nicht verstehen kann, dass das hieraus errechnete Wissen und die entsprechende Prognosen nicht mit der Diversität des unberechenbaren Lebens übereinstimmt: Algorithmic Bias ist das Stichwort, oder: Abwerten, Aussortieren, Separieren (Waldmann 2024). Dabei geht es um nichts weniger als die Gegenwart und Zukunft des Lebbaren.
Mein Beitrag fragt auf dieser Grundlage nach den diskursiven wie materiellen Abhängigkeiten und Bedingtheiten sogenannter KI, wobei sich zeigen wird, dass wir es vielmehr mit einem kuratorischen Gefüge zu tun haben, das die Frage nach der machtvollen Reproduktion digitaler Technologien auf den Plan ruft.
KI-Mythologien
Der Begriff der ‚Künstlichen Intelligenz‘ folgt einer Traditionslinie der vergeschlechtlichten Macht- und Gewaltordnung (Deuber-Mankowsky 2017): Auf der einen Seite die als männlich verstandene rationale, körperlose Transzendenz, die hier als das Künstliche wieder auftritt. Auf der anderen Seite die als weiblich verstandene emotionale Verkörperung des Natürlichen und damit der Bereich des Reproduktiven. Dabei ging und geht es nicht nur um eine vermeintlich fundamentale Andersartigkeit, sondern auch um eine Bewertung: In der Geschichte und Gegenwart der machtvollen Hierarchisierung der Geschlechter ist das Andere des Natürlichen immer auch das Überlegene (Deuber-Mankowsky 2017, 3ff.). Die „Mythologien“ (Crawford 2022, 12ff.) der KI aktualisieren also eine genuin mit der hierarchisierten Geschlechterordnung verwickelte Differenz.
Wider die Mythologie
In digitalen Kulturen sind es primär ökonomische Interessen im Plattformkapitalismus, denen diese Differenz dienlich gemacht wird. Dabei drohen die materiellen Bedingungen aus dem Blick zu geraten, welche die vermeintlich rational-körperlosen Technologien überhaupt erst am Laufen halten: Auf den Böden der Meere liegen kilometerlange Glasfaserkabel, entlang der Routen der Sklavereischiffe verlegt (Köppert 2019); im Jahr 2022 kamen laut WHO circa 62 Millionen Tonnen E-Waste zusammen, der u. a. in Ghana ausgeschlachtet und verbrannt wird, um die wertvollen Metalle inmitten giftiger Gase zu extrahieren; ein Chat-GPT-Prompt verbraucht zehn Mal so viel Strom wie eine Google-Anfrage – weswegen Microsoft & Co. nun eigene Atomstromanlagen nutzen wollen; damit die Arbeiter*innen von Amazon ihr rechnerisches Tagessoll an Lieferungen erzielen (Bareikyté/Bee 2024), stehen in den US-Lagern Schmerztablettenautomaten bereit (vgl. Crawford 2022, 62) und Content Moderators auf den Philippinen setzen sich tagein tagaus gewaltvollem Social Media Content aus, um den Betrieb der Plattformen zu sichern (Jereza 2021).
Es ließen sich zahlreiche weitere Beispiele anführen, die verdeutlichen, dass KI grundlegend auf materielle Ressourcen und menschliche Arbeitskraft angewiesen ist, wobei ihre Ausbeutung Ausdruck intersektionaler Ungleichheits- und Gewaltverhältnisse ist. Crawford stellt deshalb folgerichtig fest: KI ist weder künstlich noch intelligent, sehr wohl aber ein Register der Macht. Mit dieser Kritik an den Mythologien der ‚KI‘ wird der Blick schließlich auf die multiplen diskursiv-materiellen Bedingungsgefüge gelenkt, die längst am Werk und zugleich entlang differentieller Macht- und Gewaltordnungen unsichtbar gemacht worden sind, wenn eine ‚KI-basierte‘ Technologie ein Output generiert.
Algorithmisierte Konnektivität
So beispielsweise, wenn im Kontext Sozialer Medien Inhalte in den ‚Feed‘ oder auf die ‚For You-Page‘ gespült werden, die wir wahrscheinlich sehen wollen und die uns – ob zustimmend oder ablehnend – affizieren. Damit werden bestimmte Verbindungen zwischen User*innen, Körpern und Bedeutung geschaffen, während andere unwahrscheinlicher werden. Insbesondere die Distribution von sogenannter ‚Hate Speech‘, ‚Fake News‘ und neofaschistischer Propaganda ist für Plattformunternehmen lukrativ.
Dabei handelt es sich um ein grundlegendes Problem demokratischer Gesellschaften im Zeitalter digitaler Teilöffentlichkeiten. Dass Content Moderation und Empfehlungssysteme ein gesellschaftliches Risiko darstellen, hat jüngst auch die Europäische Kommission durch den Digital Services Act (DSA) adressiert, wobei insbesondere Transparenz mit Blick auf Content Moderation und Empfehlungssysteme gefordert wird (Fischer/Sarther/Eickelmann 2024). Der DSA, eine EU-Verordnung zur Regulierung des Binnenmarkts, ist im Februar in Kraft getreten und soll nun das ‚Online-Umfeld sicherer‘ machen, indem die Plattformen in die Verantwortung genommen werden. Konkret geht es u. a. um die ‚Systeme zur Moderation von Inhalten‘ und die ‚algorithmisierten Empfehlungssysteme‘ – und damit eben auch die Gestaltung algorithmisierter Konnektivität – über die in Form von Transparenzberichten Rechenschaft abgelegt werden muss.
Körper im System
Was aber, wenn die Systeme zur Moderation von Inhalten und die algorithmisierten Empfehlungssysteme gar nicht ‚als solche‘ transparent gemacht werden können, d. h. nicht einfach aus einem Bedingungskomplex herausgeschält werden können? Beispielsweise deshalb, weil sie tagtäglich von User*innen(-Körpern) entlang medialer Affordanzen trainiert werden? Diese Frage ruft uns zu einer Problematisierung der macht- und gewaltvollen Bedingungen und Effekte algorithmisierter Konnektivität aus unterschiedlichen Richtungen und Perspektiven auf.
Neben globalen Ausbeutungsverhältnissen und Prekarisierungseffekten eines neoliberalen Plattformkapitalismus geht es dann auch um Körper, die mit Medientechnologien verschränkt sind. Sie produzieren Daten, indem sie scrollen, tabben, liken, kommentieren, hochladen und damit eben auch jene Wissensgeschichten mitkonstituieren, die für maschinelles Lernen genutzt werden. TikTok erfasst beispielsweise zu einem Video rund 600 Datenpunkte, wie Martin Degeling und Anna-Katharina Meßmer von interface jüngst zeigen konnten. Diese Aspekte lassen sich nicht voneinander trennen.
Wer oder was trägt Sorge für die Reproduktion digitaler Technologien?
Wenn nun also die juridische Regulierung zwar unausweichlich ist, aber keinesfalls die alleinige Lösung mit Blick auf algorithmisierte, differentielle Diskriminierung und Gewalt versprechen kann – wie können die multiplen Bedingungen der mitunter destruktiven Effekte von KI stattdessen erfasst werden? Für eine solche Perspektivverschiebung ist die Frage nach der Reproduktion digitaler Technologien unausweichlich. Unter welchen diskursiv-materiellen Bedingungen, entlang welcher normativen Rahmen werden welche Politiken und Praktiken der Reproduktion digitaler Technologien mit welchen macht- oder gar gewaltvollen Effekten wie produktiv? Oder anders formuliert: Who cares?
Dabei ginge es nicht nur darum, wie soziale Reproduktion durch digitale Technologien transformiert wird (Altenried/Dück/Wallis 2021). Sondern es ginge auch um die macht- und gewaltförmigen Bedingungen und Praktiken der soziomedialen Reproduktion digitaler Technologien selbst. Vielleicht wird so ja gerade im Kontext differentieller Gewalt in digitalen Öffentlichkeiten eine spezifische Dimension der Sorgekrise offenkundig – eine Krise der Sorge für Konnektivität in digitalen Kulturen.
‚KI‘ als kuratorisches Gefüge
Dann müsste allerdings auch die unbequeme Einsicht folgen, dass es mit einer ausschließlich juridisch-regulativen Lösung für die besagten diskriminierenden Effekte KI-basierter Rechenprozeduren, wie sie der DSA im Kontext Sozialer Medien vorschlägt, nicht getan sein wird. Vielmehr muss anerkannt werden, dass wir es im Kontext internetbasierter Konnektivität mit einem krisenhaften kuratorischen Gefüge zu tun haben. Kuratorisch deswegen, weil es sich um ein bewegliches, relationales Gefüge handelt, bei dem Körper und Bedeutungen inmitten algorithmischer Systeme miteinander in Bezug gesetzt werden. Dabei geht es um mehr als um Rechenprozeduren. Und so ließen sich das (Praxis-)Wissen von Forschungsprojekten und NGOs, die Interventionen kreativer Formate der Politischen Bildung (Bee 2023) und auch Social Media Interventionen von Museen (Sarther 2024)über die rechtliche Regulierung hinaus ebenso nutzen wie die Reflexion der eigenen Praxis. Denn auch diese zählt, wenn es darum geht, die kuratorischen Gefüge in digitalen Kulturen in Bewegung zu halten und zu transformieren.
Die Politiken und Praktiken des Kuratorischen in digitalen Kulturen weiter zu verfolgen, heißt auch, die Frage nach den differenziellen, macht- und gewaltvollen sowie transformativen Bedingungen wie Effekten des Sorgetragens für internetbasierte Konnektivität mitzudenken. Zumindest, wenn man den Begriff ernst nimmt, denn Kuratieren kommt von curare und meint Sorge tragen.
Literatur
Altenried, Moritz; Dück, Julia & Wallis, Mira (Hg.) (2021): Plattformkapitalismus und die Krise der sozialen Reproduktion. Münster: Westfälisches Dampfboot. https://www.rosalux.de/publikation/id/44269/plattformkapitalismus-und-die-krise-der-sozialen-reproduktion (letzter Zugriff: 28.10.24).
Bareikyté, Miglé & Bee, Julia (Hg.) (2024): Liefern. Logistiken, Daten und Politiken. Navigationen. Zeitschrift für Medien- und Kulturwissenschaften 24 (2). http://dx.doi.org/10.25819/ubsi/10577
Bee, Julia (2023): Kontrapunkte setzen: Digitale Politische Bildung mit ContraPoints. Working paper Series 35. http://dx.doi.org/10.25819/ubsi/10445
Crawford, Kate (2024): Atlas der KI. Die materielle Wahrheit hinter den neuen Datenimperien. München: C.H. Beck.
Deuber-Mankowsky, Astrid (2017): Natur – Kultur: Ein Dualismus als Schibboleth der Gender- und Queer Studies? In: Kortendiek, Beate; Riegraf, Birgit; Sabisch, Katja (Hg.): Handbuch Interdisziplinäre Geschlechterforschung. Wiesbaden: VS, 1-10. https://doi.org/10.1007/978-3-658-12500-4_2-1
Fischer, Julia; Sarther, Isabelle & Eickelmann, Jennifer (2024): Transparenz als Allheilmittel? Soziale Medien im Spannungsfeld von DSA und zivilgesellschaftlichen Problematisierungen. In: Zeitschrift für Medienwissenschaft, ZfM Online, GAAAP_ The Blog, https://zfmedienwissenschaft.de/online/transparenz-als-allheilmittel (letzter Zugriff: 28.10.24).
Jereza, Rae (2021): Corporeal moderation: digital labour as affective good. In: Social Anthropology 29 (4), 928-943. https://doi.org/10.1111/1469-8676.13106
Köppert, Katrin (2019): „Internet is not in the Cloud.” Digitaler Kolonialismus. https://www.gwi-boell.de/de/2019/04/10/internet-not-cloud-digitaler-kolonialismus (letzter Zugriff: 28.10.24).
Sarther, Isabelle (2024): Infratsrukturen des Erinnerns und Vergessens. Content Moderation im Kontext musealer Vermittlung auf Twitter. Marburg: Büchner.
Waldmann, Maximilian (2024): Abwerten, Aussortieren, Separieren. Algorithmische Ungleichheit als neuartiges Gegenstandsfeld soziologischer, neomaterialistischer und medienbildungstheoretischer Positionen. In: MedienPädagogik: Zeitschrift für Theorie und Praxis der Medienbildung 61 (Becoming Data), 1-23. https://doi.org/10.21240/mpaed/61/2024.06.10.X
Zitation: Jennifer Eickelmann: Weder künstlich noch intelligent: ‚KI‘ und die Frage der Reproduktion, in: blog interdisziplinäre geschlechterforschung, 11.11.2024, www.gender-blog.de/beitrag/ki-kuratorisches-gefuege/, DOI: https://doi.org/10.17185/gender/20241111
Beitrag (ohne Headergrafik) lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz
Kommentare
Petra Nabinger | 18.11.2024
Danke für diese wissenschaftliche Beleuchtung der Themen rund um KI. Wie kann ein Algorithmus, der gewaltvolle Contents durch Reichweite belohnt, ausgeschaltet werden? Ist in den machtbasierten sozialen Medien überhaupt eine diesbezügliche Transparenz möglich?