Kategorien
Kommentare

„Wir müssen reden“ – Das Potenzial von KI an Schulen ist unklar

Gastkommentar von Nina Galla, wissenschaftliche Mitarbeiterin im Themenfeld KI, Technologie und Bildung für die Fraktion DIE LINKE. im Deutschen Bundestag.

Der Einsatz von KI-Systemen an Schulen scheint auf den ersten Blick eine attraktive Lösung für so einige Herausforderungen zu sein und im Sommer 2021 liefen Pilotprogramme für KI-Anwendungen an Schulen in Sachsen, Sachsen-Anhalt und Mecklenburg-Vorpommern. Neben allen Hoffnungen, die mit KI an Schulen verbunden sind, werden allerdings die begleitenden unbeantworteten Fragen und ungelösten Probleme kaum thematisiert. Das ist insbesondere aus dem Grund problematisch, weil es noch große Wissenslücken seitens EntscheiderInnen und AnwenderInnen gibt.

Zentrale und wiederkehrende Probleme in der Anwendung von KI sind immer noch nicht gelöst, wie beispielsweise Diskriminierung aufgrund quantitativ oder qualitativ nicht genügender Trainings-Daten und die meist fehlende Nachvollziehbarkeit. Bisher halten sich die meisten AnbieterInnen im Bildungssegment auch sehr zurück in der Offenlegung ihrer tatsächlich angewandten Technologie – es ist von außen nicht ohne weiteres erkennbar, ob es sich bei Intelligenten Tutorsystemen, adaptivem Lernen oder ähnlichen Umschreibungen tatsächlich um Machine Learning handelt.

KI-Systeme an Schulen bedeuten immense Aufgaben für die pädagogischen Inhalte, die so operationalisiert werden müssen, dass die Systeme sie zum richtigen Zeitpunkt  individuell ausspielen, so dass Lernende weder unter- noch überfordert werden. Risiken liegen hier vor allem in der Modellierung des Systems, wenn festgelegt wird, was als richtig oder falsch gewertet werden soll und im Umgang mit Antworten, die das System im Training nicht kennengelernt hat. Denn nach welchen Maßstäben ein System „lernt“, bleibt teilweise oder vollständig immer noch unklar. Die Systeme erkennen zwar Korrelationen, aber keine Kausalitäten. Diese Intransparenz kann sogar pädagogische Ziele unterlaufen.

Die Regulierung des KI-Marktes steckt außerdem noch in den Kinderschuhen. Die EU-Kommission hat mit dem Artificial Intelligence Act im Mai 2021 einen Vorschlag vorgelegt, in dem KI-Systeme im Bildungsbereich zu den Hochrisiko-Anwendungen gehören können, was umfangreiche Pflichten und Anforderungen unter anderem an IT-Sicherheit, Nachvollziehbarkeit und Dokumentation mit sich bringt. Unklar ist zum derzeitigen Zeitpunkt jedoch, wer diese Pflichten zu erfüllen hat, insbesondere wenn es sich um „AI as a service“ handelt. Diese Unklarheit bringt große Rechtsunsicherheit mit sich und statt der erhofften Entlastung der Lehrkräfte verschiebt sich die Belastung möglicherweise lediglich. Ebenfalls zu wenig thematisiert wird die Rolle des Menschen beim Umgang mit KI – zu klären ist, welchen Umfang eine menschliche Letztentscheidung haben sollte, wie Menschen ihre Entscheidungsspielräume wahrnehmen und was dies für die juristische Verantwortung von Lehrkräften bedeutet.

KI an Schulen sollte nicht eingesetzt werden, um Digitalisierungsfähigkeit zu dokumentieren. Es entstehen dabei neue Herausforderungen auf technischer, pädagogischer und juristischer Ebene, über die zu wenig Wissen und Problembewusstsein vorhanden sind. Es braucht mehr Aufklärung über die Entwicklungskette und Funktionsweisen von KI-Systemen. KI im Schulwesen kann durchaus sinnvoll sein – doch so lang die offenen Fragen nicht gelöst sind, kann ein verantwortungsvoller Einsatz nur mit nicht-personenbezogenen Daten oder mit Daten von informierten und geschulten Lehrkräften erfolgen.

Nina Galla