Ein Kommentar der UNBLACK THE BOX-Mitglieder Christoph Richter & Heidrun Allert
Seit der Veröffentlichung von ChatGPT durch OpenAI im November 2022 sind generative KI-Anwendungen auf Basis großer Sprachmodelle zu einem Dauerthema geworden. Insbesondere im Bildungskontext haben die Möglichkeiten automatisierter Generierung von medialen Inhalten zu einer Vielzahl von Kommentaren, Analysen und Tools geführt. Die anfängliche Verunsicherung weicht zunehmend pragmatischen Positionen im Umgang mit dieser technologischen Entwicklung. Beispiele hierfür sind Handreichungen für Lehrkräfte, Initiativen für eine datenschutzkonformen und sicheren Zugang zu entsprechenden Systemen wie auch das Impulspapier »Large Language Models und ihre Potenziale im Bildungssystem«, der Ständigen Wissenschaftlichen Kommission der Kultusministerkonferenz (SWK)[1]. Die aktuelle Diskussion greift jedoch zu kurz, wenn sie Technik auf ihren instrumentellen Charakter reduziert und die mit ihr einhergehenden soziokulturellen Transformationsdynamiken ausklammert.
So verkürzt etwa das Impulspapier der SWK die Frage nach den »Chancen und Risiken« von ChatGPT auf den »gewinnbringenden Einsatz in Lehr-Lernsituationen«. Generative KI-Anwendungen werden als Werkzeuge betrachtet, deren Eignung für verschiedene Szenarien geprüft und gesichert werden soll, von Texterstellung durch Schüler*innen über personalisierte Lernumgebungen bis zur Produktion von Lehrmaterial. Die Betrachtung aus einer solch instrumentellen Perspektive reduziert die Diskussion auf die benötigten Fähigkeiten und Kenntnisse von Schüler*innen und Lehrkräften sowie auf technische Aspekte wie inhaltliche Qualität und rechtssichere Nutzung. Weiterreichende soziokulturelle Transformationsdynamiken werden durch die Reduktion von Lernen und Bildung auf individuellen Kompetenzerwerb sowie technizistische Machbarkeitsphantasien neutralisiert, was eine zutiefst technizistische Weltsicht offenbart.
Wie aber könnte ein anderer Blick auf generative KI aussehen? Wir schlagen vor, generative KI-Anwendungen nicht nur als Werkzeuge oder technische Probleme, sondern als kollektives und ›öffentliches Problem‹[2] zu verstehen. Sie erfordern eine gesellschaftliche Auseinandersetzung, da sie unser Leben und Handeln beeinflussen und der gemeinsamen Sorge bedürfen. Sie haben den Charakter eines ›vertrackten‹ oder ›wicked problems‹[3]. Wir wissen weder worin das Problem besteht, das ChatGPT und Co. lösen, noch wie wir mit diesen Technologien umgehen sollen. Wir wissen, dass wir bessere oder schlechtere Entscheidungen treffen werden und ahnen, dass jede Entscheidung neue Probleme nach sich ziehen wird. Ein rein instrumentelles Verständnis dieser Anwendungen greift folglich zu kurz. Die Fragen, die sich aus dem Verständnis generativer KI als kollektive Aufgabe ergeben, sind konkreter Natur, wie wir an den folgenden Beispielen aufzeigen.
In der Diskussion um generative KI-Anwendungen wird oft die Problematik systematischer Verzerrungen in den produzierten Inhalten hervorgehoben, die etwa Fragen von Religion, Gender, Ethnie, Beruf sowie moralischen und politischen Ansichten betreffen. Hieran knüpft zumeist die Forderung an, entsprechende Verzerrungen zu beheben oder sie zumindest offenzulegen. Abgesehen von ›technischen‹ Umsetzungsproblemen[4], stellt sich hier jedoch eine viel grundlegendere Frage: Woher wissen wir, was eine Verzerrung ist und wer bestimmt dies? Eine soziokulturelle Perspektive legt nahe, dass eben diese ›Verzerrungen‹ Gegenstand und Produkt kulturhistorisch kontingenter Prozesse sind. Die Vorstellung eines LLMs ohne Verzerrungen verkennt diese Kontingenz und fällt einem technizistischen Weltbild anheim. Versteht man die Frage der Verzerrungen hingegen als Teil einer kollektiven Aufgabe, können generative KI-Anwendungen durchaus dazu dienen, entsprechende Verzerrungen aufzuzeigen.
Ein ähnliches Beispiel betrifft die Beurteilung der Qualität von Inhalten, die durch generative KI-Anwendungen erstellt wurden. Obwohl große Sprachmodelle in verschiedenen Bereichen Inhalte produzieren können, die vordefinierten Qualitätsstandards genügen und oft menschliche Produkte übertreffen, sagt dies nichts über die Qualität in anderen Anwendungsbereichen oder in Bezug auf unterschiedliche Qualitätsstandards aus. Die hier oft einsetzende Forderung nach ›besserer› Technologie vernachlässigt jedoch, dass auch die Qualität medialer Inhalte das Ergebnis soziokultureller Verhandlungsprozesse ist. Was einen ›guten‹ Text ausmacht, ist nicht objektiv bestimmbar und kann nicht technisch sichergestellt werden, ohne auf einen angenommenen Konsens zurückzugreifen oder diesen zu diktieren. Die Auseinandersetzung mit Fragen der Qualität(en) von Texten kann jedoch auch hier als kollektive Aufgabe betrachtet werden, zu der KI-generierte Inhalte einen Beitrag leisten können. Zudem ist auch nicht davon auszugehen, dass der Einsatz generativer KI-Anwendungen Bildungsungleichheit und Leistungsscheren reduzieren wird, solange die Verhandlungs- und Entwicklungsprozesse von kommerziellen Interessen dominiert werden, während öffentliche Institutionen und Zivilgesellschaft zunehmend als überflüssig betrachtet werden.[5] Die Entwicklung und Verbreitung von KI sind daher immer auch politisch.
Weiterführende Fragen betreffen etwa den für entsprechende Anwendungen erforderlichen Energieaufwand im Verhältnis zum generierten Mehrwert, die Bindungen und Einflussnahmen der Anbieter durch konkrete Produkte, sowie die Arbeitsbedingungen unter denen die Modelle trainiert wurden. Das Verständnis generativer KI als kollektiver Aufgabe lenkt den Blick auch auf die Transformation jener Praktiken, die diesen Technologien betroffen sind und wirft die Frage auf, was uns an diesen Praktiken eigentlich wichtig ist. Aus pädagogischer Perspektive lassen sich generative KI-Anwendungen nicht nur als Werkzeug, sondern im Sinne der kritisch-konstruktiven Didaktik Wolfgang Klafkis auch als ›epochaltypisches Schlüsselproblem‹ verstehen, das nicht nur Schüler*innen und Studierende, sondern uns alle betrifft.
[1] Ständige wissenschaftliche Kommission der Kultusministerkonferenz (2024). Large Language Models und ihre Potenziale im Bildungssystem. Impulspapier der Ständigen Wissenschaftlichen Kommission (SWK) der Kultusministerkonferenz. http://dx.doi.org/10.25656/01:28303
[2] Williamson, B. (2024, 29. Februar). AI in education is a public problem. Code Acts in Education. https://codeactsineducation.wordpress.com/2024/02/22/ai-in-education-is-a-public-problem/
[3] Rittel, H., & Webber, M. M. (1973). Dilemmas in a General Theory of Planning. Policy Sciences, 4(2), 155–169.
[4] Siehe z.B. Robertson, A. (2024, 21. Februar). Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis. The Verge. https://www.theverge.com/2024/2/21/24079371/google-ai-gemini-generative-inaccurate-historical
[5] Donner, M., Allert, H. (2022). Auf dem Weg zur Cyberpolis. Bielefeld: Transcript.