Ethiken generativer KI in der schulischen Bildung

Mar 18, 2026 min read

Der Einsatz künstlicher Intelligenz in der schulischen Bildung ist ein hart umkämpftes Feld. Während derzeitig vor allem die Auswirkungen staatlicher Systeme wie AIS auf das edTech-Ökosystem diskutiert werden, tangiert der Krieg im Iran überraschend deutlich auch die Debatte über KI in der schulischen Bildung.

Was ist geschehen? Am 28. Februar haben die USA im iranischen Manib eine Schule bombardiert. Laut Meldungen wurden über 170 Menschen getötet, der überwiegende Teil davon waren Schülerinnen. Als eine Erklärung, wie es zu diesem fatalen Fehler kommen konnte, wurde ins Feld geführt, dass das US-Militär die KI Claude von Anthropic für die Planung des Angriffs genutzt hat.

Erst kurz zu vor hat openAI bekanntgegeben, dass das Unternehmen einen Vertrag mit dem US Department of War zur Nutzung von KI-Systemen eingegangen ist. Es gruselt mich der Gedanken, dass zum selben Zeitpunkt als Claude vorschlug eine Mädchenschule zu bombardieren deutsche Schüler_innen Telli, FellowFish, Fobizz und co. nutzten, um ihre Schularbeiten anzufertigen.

Ich erinnere mich an meine Schulzeit. Als bei einem Terroranschlag in Beslan über 300 Menschen starben haben wir an meiner Schule Schweigeminuten abgehalten und Hilfspakete verschickt. Solche Aktionen sind wichtig, weil sie Schüler_innen Solidarität und globales Denken lehren. Wie sieht das heute aus? Eine Schweigeminute für die durch Claude getöteten iranischen Schülerinnen und in der nächsten Unterrichtseinheit generiert Claude ein Feedback, ob man im „Westen nichts Neues“ verstanden hat? Finden an deutschen Schulen überhaupt solidaritäts-Aktionen mit den getöteten iranischen Schülerinnen statt und wenn ja, diskutiert man mit deutschen Schüler_innen, wie es zu diesem fatalen Fehler kam? Falls es nicht zu Solidaritäts-Aktionen kommt, warum eigentlich? Scham?

Der Tod von Menschen mag dabei das drastischste und kontrastierenden Beispiel sein. Zur Realität gehört aber auch, dass dieselbe Software die heute Schüler_innen beim Lernen begleitet auch die Software ist, die dafür verantwortlich sein wird, dass diese Studierenden keinen Studienkredit erhalten oder, dass sie nicht zu einem Vorstellungsgespräch eingeladen werden. Die Nutzung von general purpose models im Feld der KI sorgt für dafür, dass der Unterschied zwischen einer lernunterstützenden Software und einem Todesurteilprogramm nur zwischen den API-Zugängen liegt.

Ethische Reglungen

Das wirft ethische Fragen auf, auf die es vielleicht nicht Antworten geben kann, aber für die Umgänge gefunden werden müssen. Die Ethik generativer KI ist mitnichten ein unbearbeitetes Feld. Die KMK selbst hat explizit einen Abschnitt zur Ethik generativer KI in die „Handlungsempfehlung für die Bildungsverwaltung zum Umgang mit Künstlicher Intelligenz in schulischen Bildungsprozessen“ eingefügt. Dort verweist die KMK auf die Publikation “Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz” des Deutschen Ethikrates. Kenner_innen wissen, dass in einer ersten Version der KMK-Handlungsempfehlung noch auf die „Ethik-Leitlinien für eine vertrauenswürdige KI, der Hochrangigen Expertengruppe für künstliche Intelligenz der europäischen Kommission“ verwiesen wurden. Dass diese nicht mehr explizit in der Handlungsempfehlung der KMK benannt ist, ist insofern nicht schlimm, als dass sie einer der Grundlagen des Papieres des deutschen Ethikrates darstellt.

Normative ethische Setzungen sind also schon weit gediegen. Der Deutsche Ethikrat fasst in seinen Empfehlungen zur künstlichen Intelligenz in der Bildung etwa zusammen, dass die Prinzipien Privatsphäre, freie Persönlichkeitsentfaltung und Unterstützung zur Teilhabe geachtet werden müssen. Neben diesen drei Empfehlungen gibt es noch acht weitere Empfehlungen dezidiert für das deutsche Bildungssystem. Interessant ist jedoch, dass der Deutsche Ethikrat in seinen Analysen und Empfehlungen nicht in der Tragweite denken konnte, dass es heute nur sehr wenige globale KI-Anbieter gibt, auf die staatliche als auch private Anbieter gleichermaßen zugreifen.

Die Empfehlung für vertrauenswürdige KI der europäischen Kommission ist weiter gefasst, scheint aber für die eingangs beschriebenen Szenarien besser gewappnet zu sein. Dort wird zunächst festgehalten, dass eine vertrauenswürdige KI die Menschenwürde achtet und Schaden verhütet.

“KI-Systeme sollten Schäden weder verursachen noch verschärfen oder sich auf andere Art und Weise auf Menschen negativ auswirken. Hierzu gehört der Schutz der Menschenwürde sowie der geistigen und körperlichen Unversehrtheit.”

Wie können wir also KI-Modelle nutzen (nicht nur in der schulischen Bildung), die sich diesem ethischen Grundsatz erwiesenermaßen entziehen? Wenn in einem System eingeschrieben ist, dass Personen und Institutionen für das Planen von Tötungen nutzen können, handelt es den Leitsätzen der EU entgegen. Leitsätze, die vom deutschen Ethikrat geteilt werden. Die KMK hat sich den Leitlinien des Ethikrates gegenüber verpflichtet.

Scham und KI-Nutzung

Das ist die Kür der Textarbeit. Die andere Seite sind Praktiker_innen, die im Bildungswesen Tag ein Tag aus chatGPT und Claude, Llama und co. nutzen. Auch ein gut dokumentierter Fall wie der KI-Einsatz im Iran oder auch angeleitete Suizide, wie bspw. im Fall Adam Raine, sind nicht in der Lage Verhalten zu ändern. Es fehlt grundsätzlich an Scham. Frédéric Gros beschreibt in „A Philosophy of Shame:A Revolutionary Emotion“, dass die Abwesenheit von Scham aus zwei Motiven heraus befördert wird. Erstens: Man ist aus der eigenen Person heraus nicht in der Lage sich zurückzuhalten. Qua Qualifikation und Position heraus ist es für einen selbst gut begründbar in einer Art und Weise vorzugehen, die es begründet schamlos zu sein. Zweitens: Die Unfähigkeit sich in andere hineinzuversetzen führt zu Schamlosigkeit. Gros führt hier den Gedanken Hannah Arendts fort, dass die Abwesenheit von Denken die Banalität des Bösen ist. Die Abwesenheit von Vorstellungskraft, was die eigenen Aktionen mit anderen Menschen machen könnten, ist die Grundlage für schamloses Agieren.

Die Expertise des Deutschen Ethikrates befördert diese Schamlosigkeit, in dem er die Empfehlungen für KI in der schulischen Bildung in der inneren Logik des deutschen Schulsystems diskutiert und keine Perspektiven eröffnet, die für globale Verantwortlichkeiten und Solidarität sensibilisiert. Damit ist der Deutsche Ethikrat nicht allein. Eine Auswertung von Jobin, Ienca und Vayena zeigte bereits, dass 2019 gerade solidarische Aspekte in ethischen Frameworks zu KI unterrepräsentiert sind. Der Deutsche Ethikrat verweist viel mehr darauf, dass die pädagogische Fachkraft durch KI nicht ersetzt werden kann; er formuliert jedoch nicht, dass die pädagogische Fachkraft nicht jedes Mittel einsetzen sollte, um die vom Ethikrat selbst angesprochenen Herausforderungen des dt. Bildungssystem zu beheben. Der Ethikrat zeichnet in gewisser Weise selbst nach warum es für Akteur_innen im schulischen Bildungssystem so einfach ist - im Sinne des ersten Arguments nach Gros - schamlos zu agieren:

“Personalmangel, sich verschärfende Lerndefizite bei den Schülerinnen und Schülern – auch verstärkt infolge der Corona-pandemie – sowie verschiedene infrastrukturelle Schwächen sind gut bekannt und gleichwohl noch immer nicht adäquat gelöst. Sie bilden den Hintergrund für jede Debatte […].”

Das deutsche Bildungssystem als ein System der multiplen Krisen, als wahrgenommene Randerscheinung des politischen Diskurses, als von Vergleichsstudien gebranntes Kind und als ein Ort an dem eher gespart als investiert wird - da bildet sich bei einigen Akteur_innen das Selbstbild heraus, dass wenn nicht sie, doch ihre Schüler_innen Subalternen sind und man alles tun müsse, diesen Subalternen beste Bildung zu ermöglichen. Jeder KI-Einsatz, der das Verspricht, scheint ethisch vertretbar.

Im Sinne des zweiten Arguments nach Gros muss man die Entwicklung des dt. Bildungssystem betrachten, als ein System des technologischen Aufholens. Mit dem DigitalPakt begannen Länder grundlegende technologische Infrastrukturen zu schaffen. Schule sollte für Schüler_innen nicht mehr ein Ort der Zeitreise sein, sondern ein Ort, der bruchloser Teil digitalisierten Lebenswelten junger Menschen ist und somit junge Menschen zeitgemäßes Lernen ermöglicht. Das Bildungssystem holt gewissermaßen eine moderne Entwicklung des “höher, schneller, weiter” nach. Joseph Weizenbaum beschreibt im Buch “Die Macht der Computer und die Ohnmacht der Vernunft” sehr eindrücklich wie Quantifizerung, Technologiesierung und das Begrenzen menschlicher Entscheidungsmöglichkeiten Wesensmerkmale der Moderne sind. Pioniere, StartUps und Freidenker_innen zeigen, was nun alles möglich ist. Nur blöd, dass die Welt, in der wir leben, das Zeitalter der Moderne verlassen hat. Westliche Vorstellungen wie eine globale Ordnung auszusehen hat, sind nicht mehr aufrecht zu erhalten. Je Sichtweise und globaler Verortung befinden wir uns bspw. im staatsfeindlichen Libertarismus auf dem Weg zum Network-State (Grüße gehen raus an die Freunde des Konzpts “Bildung als Plattform”) oder in der Transmoderne. Es gilt nach vorn zu denken und sich im Sinne transmoderner Ansätze grundlegender Fragen zur globalen Vernetzung von KI-Systemen zu stellen. Transmoderne Gedanken forcieren den Diskurs zwischen den Enden der Peripherien. Der KI-Einsatz und was ethisch vertretbar ist, müsste in dieser Logik beispielsweise von Menschen, die in Tennesse von den umweltschädlichen Collosus 2 Data Center betroffen sind, gemeinsam mit Klick-Workern in Kenia geführt werden. Fachkräfte des deutschen Bildungssystems können dieser Diskussion nur zuhören und lernen. Transmoderne Diskurse stellen ebenfalls ein solides Analyse-Gerüst zur Verfügung, in dem beispielsweise nach Materialitäten betroffener Menschen, demokratischen Strukturen und Machbarkeiten für Transformationen gefragt werden Enrique Dussel - der Gegendiskurs der Moderne). In der deutschen Bildungssteuerung vernebelt aber die Mentalität des modernen technikgetriebenen Aufbruchs den Blick für die Orte, an denen ethischen Fragen, Abwägungen und Rechtfertigungen entstehen.

Die Gefahr, die besteht, ist eine Verrohung pädagogischer Praxis durch KI. Wenn ein und dieselbe Software dafür genutzt werden kann zu töten und Deutschklausuren zu korrigieren, dann ist diese KI auch in der Lage erst harte und dann grausame pädagogische Entscheidungen zu treffen. Es ist die Wahrscheinlichkeitslogik generativer KI, die diesen Effekt verstärkt. Mit zunehmenden harten und grausamen Outputs lernt das System und erhöht damit die Wahrscheinlichkeiten für zukünftige harte und grausame Entscheidungen. Wir haben diesen Effekt bei verschiedenen ersten KI-Anwendungen beobachten können (Hallo Tay, du rechtsradikaler Microsoft-Twitter Bot). Für die Bildungspraxis heißt dies aber, immer mehr drohen wir in eine technisch getriebene Begründungslogik zu rutschen, in der am Ende ein automatisiertes System entscheidet, welche Schüler_innen es wert sind, dass in ihren Bildungserfolg investiert wird und in welche nicht. Da hilft das mantraartig vorgetragene „Pädagogik vor Technik“ nichts, wenn Zeitgeist und die großen Projekte des Systems derzeitig eher technikgetrieben als pädagogisch fundiert sind.

Nach vorne Blicken

Besser wäre es, den Gedanken zu vertrauenswürdiger KIs der europäischen Kommission ernstzunehmen und zu weiten: “KI-Systeme sollten Schäden weder verursachen noch verschärfen oder sich auf andere Art und Weise auf Menschen negativ auswirken”. Diesem ethischen Imperativ steckt eine bedeutende Kraft inne. Er muss ernst genommen werden, auf ökologischer, sozialer und moralischer Ebene. Der Imperativ kann dabei nicht nur auf die Bürger_innen der EU zielen, sondern muss global gedacht werden. Es muss als unethisch gelten, KI zu nutzen, wenn dies in anderen Ländern zu ökologischen Katastrophen führt. Es muss als unethisch gelten, wenn KI-Modelle auf geraubten urheberrechtlich geschützten Werken basieren, ohne dass Künstler_innen für die Nutzung fair entlohnt werden. Es muss als unethisch gelten, wenn KI-Modelle militärisch nutzbar sind und in der Peripherie des Westens eingesetzt werden, um Bürger_innen des Westens von den harten Entscheidungen und der Verantwortung des Krieges zu entbinden.

“KI-Systeme sollten Schäden weder verursachen noch verschärfen oder sich auf andere Art und Weise auf Menschen negativ auswirken” führt uns unweigerlich in die Situation KI-Modelle der großen Anbieter abzulehnen. Würden Entscheidungsträger ihre eigenen ethischen Standards ernst nehmen, müssten Sie sich von chatGPT, claude, Llama und Gemini distanzieren. Ein Jahr der Scham, in dem reflektiert wird, müsste folgen. Denn wie Frédéric Gros schreibt, liegt der Scham eben auch dort revolutionäre Kraft inne, wo sie genutzt wird Ungerechtigkeit zu erkennen, Solidarität zu befördern und Ignoranz zu minimieren. Die Antwort wäre es für die schulische Bildung nicht mehr auf general purpose KI-Modelle zu setzen. Speziell für die schulische Bildung trainierte künstliche Intelligenzen, auf Basis von synthetischen Daten und mit einer purpose limitation ausgestattet, wäre ein System, das ethischen Leitlinien standhalten könnte. Das setzt jedoch einen ernshaften Reflektionsprozess vorauss. Es wäre auch ein Lackmustest, ob wir bereit sind, wirklich in die technischen Infrastrukturen des dt. Bildungssystems zu investieren. Denn solche Systeme sind teurer und aufwendiger, als die derzeitig noch zum Ramschpreis verfügbaren general purpose models. Es wäre eine Entwicklungsarbeit, die mit wissenschaftlichen Akteur_innen in der EU gemeinsam durchgeführt werden müsste. Die 60 Millionen Investitionen in das AIS sähen dagegen klein aus. Was man gewinnt, ist ein System das vereinbar mit europäischen Werten, kontrollierbar und zukunftsfest ist.