Zurück zu: Künstliche Intelligenz im Schulalltag – Aufbaukurs für Lehrkräfte
Bis hierher klang KI vielleicht wie ein Wunderwerkzeug – und tatsächlich stecken riesige Chancen darin. Doch jede Medaille hat zwei Seiten. Als reflektierte Lehrkraft musst du die Risiken und Grenzen von KI kennen, um sie verantwortungsvoll einzusetzen. In dieser Lektion gehen wir auf die pädagogischen Chancen ebenso ein wie auf die Gefahren: von Bias über Halluzinationen bis zu Fragen der Fairness und Vertrauenswürdigkeit. Es geht darum, realistisch einzuschätzen, was KI kann und wo Vorsicht geboten ist.
Chancen: Was KI pädagogisch ermöglichen kann
Zunächst die Sonnenseite: Richtig eingesetzt, kann KI in der Bildung viel Gutes bewirken. Ein paar der Chancen haben wir schon gestreift:
- Individuelle Förderung: KI-Systeme können helfen, personalisiertes Lernen umzusetzen. Sie können Inhalte und Schwierigkeitsgrad flexibel anpassen, sodass jedes Kind im eigenen Tempo lernen kann. Das heißt, KI könnte z.B. einem schnell lernenden Kind schwierigere Aufgaben geben, während ein anderes zeitgleich einfachere Übungen bekommt – ohne dass du alles manuell vorbereitest. So etwas verspricht einen Motivationsschub: Jede*r arbeitet im „Flow“, weder unter- noch überfordert.
- Neue kreative Lernformen: KI eröffnet auch neue Formate: automatisierte Lernpodcasts, personalisierte Lernvideos, interaktive KI-Avatare als Gegenüber in Rollenspielen – all das kann Lernen abwechslungsreicher machen. Beispielsweise könnten Schüler*innen mit einem historischen KI-Avatar (sagen wir „Albert Einstein“-Chatbot) sprechen, um mehr über Physik zu erfahren. Oder sie lassen sich von KI beim Schreiben einer Geschichte helfen und lernen dabei stilistische Mittel. Diese Ansätze stehen noch am Anfang, aber sie sind spannend für die Zukunft des Unterrichts.
- Entlastung = mehr Zeit fürs Wesentliche: Vielleicht der greifbarste Vorteil: Entlastung bei Routine schafft Freiräume für dich als Lehrkraft. Jede Minute, die du dank KI beim Materialbasteln sparst, kannst du in ein Gespräch mit einem Kind investieren oder in die eigene Fortbildung. Indem KI Arbeiten abnimmt, die keine menschliche Empathie erfordern (wie 30 identische Tests korrigieren), bleibt dir mehr Energie für die echte pädagogische Arbeit – also z.B. Förderungsgespräche, Elternkontakte, Methodik-Überlegungen. Das kommt letztlich den Schüler*innen zugute.
Man sieht: Die Chancen liegen vor allem darin, unterrichtliche Prozesse effizienter und individueller zu gestalten. KI kann hier als Turbo-Booster fungieren: Sie beschleunigt oder verbessert Dinge, aber die Richtung gibst nach wie vor du vor. Wichtig ist, diese Möglichkeiten bewusst zu nutzen – und nicht blind zu vertrauen. Denn damit kommen wir zur Kehrseite…
Risiken: Bias, Halluzinationen und andere Stolpersteine
So groß die Chancen, so wichtig ist es, die Risiken von KI-Systemen zu kennen. Hier die zentralen Herausforderungen, denen du begegnen wirst:
1. „Halluzinationen“ – wenn KI Unsinn erzählt:
KI-Modelle (v.a. generative wie ChatGPT, Google Gemini, Claude, etc.) können falsche Ausgaben produzieren, die auf den ersten Blick glaubwürdig wirken. Man nennt das „halluzinieren“. Das heißt, die KI „erfindet“ z.B. vermeintliche Fakten, die aber nicht stimmen. Beispiel: Du fragst nach einer Biografie von Mozart, und die KI gibt das richtige Geburtsjahr an, erzählt dann aber von Mozarts „Reise nach Frankreich 1799“ (die nie stattfand). Oder sie generiert eine Mathe-Aufgabe, gibt aber eine falsche Lösung aus. Das passiert, weil das Modell zwar auf Mustern basiert, aber kein echtes Verständnis hat. Für uns heißt das: Immer wachsam sein! Traue keiner KI-Antwort zu 100%. Gerade im Unterricht kannst du es dir nicht leisten, falsche Infos weiterzugeben. Wenn KI dir Content liefert, prüfe Daten und Ergebnisse zumindest stichprobenartig. Mit der Zeit lernst du, wo die typischen Stolperstellen sind (z.B. fiktive Quellenangaben, ungültige Zitate etc.).
Experten warnen, dass man Chatbots daher eher als „gute Freunde, aber nicht als allwissende Experten“ sehen soll: Sie können helfen, dürfen aber nicht als letzte Wahrheit genommen werden. Klaus Zierer, ein Bildungsforscher, sagte sinngemäß: „Der Chatbot darf nicht als Denkersatz dienen – nur als kritischer Freund, dem man wegen Halluzinationen und Bias nie 100% trauen sollte.“. In der Praxis: Verlasse dich nicht blind auf KI-generierte Lösungen, egal ob bei deinem Unterrichtsentwurf oder bei Schüler-Outputs. Halte immer eine Plausibilitätskontrolle parat.
2. Bias – versteckte Verzerrungen und Vorurteile:
KI-Systeme werden mit riesigen Datenmengen trainiert. Wenn in diesen Daten Vorurteile oder Einseitigkeiten (Bias) stecken, kann die KI diese unbewusst übernehmen. Das ist gefährlich, denn es können z.B. stereotype Inhalte entstehen: Vielleicht schlägt dir die KI für einen Informatik-Text immer nur männliche Beispielnamen vor (weil Programmierer in den Trainingsdaten oft Männer waren). Oder sie gibt bei einem politischen Thema tendenziöse Antworten, weil Online-Daten verzerrt waren. Für dich als Lehrkraft heißt das: Sei wachsam gegenüber unausgewogenen oder diskriminierenden Inhalten. Ein Beispiel aus der Praxis: Du lässt KI Satzanfänge für Aufsätze generieren, und sie schreibt: „Der Feuerwehrmann rettet…“ immer männlich. Du könntest gegensteuern, indem du bewusst um weibliche oder neutrale Formen bittest. Oder KI macht einen Witz, der klischeebehaftet ist – solche Dinge musst du erkennen und ausbügeln, damit dein Material diversitätsgerecht bleibt.
Auch bei Datenanalysen kann Bias eine Rolle spielen: Wenn eine KI z.B. Schülerleistungen bewertet, könnte sie systematisch eine Gruppe benachteiligen (etwa weil ihre Ausdrucksweise anders ist). Lösungsansatz: KI ist am besten in deinen Händen aufgehoben – du überprüfst und korrigierst, wo nötig. Und in der Klasse kannst du Bias sogar thematisieren: Zeig den Kindern z.B. zwei KI-generierte Bilder zum Begriff „Pilot“ – vielleicht sind beide männlich. Das wäre ein toller Einstieg, um über Stereotype zu reden.
3. Fehlende Transparenz – „Black Box“ Problem:
Viele KI-Modelle sind so komplex, dass nicht einmal die Entwickler genau wissen, warum die KI jetzt jene Antwort gegeben hat. Für den schulischen Einsatz ist das schwierig, denn wir sollten ja Entscheidungen erklären können. Wenn z.B. ein KI-System bei einer historischen Frage falsche Jahreszahlen angibt – worauf basiert das genau? Wir wissen es oft nicht. Das birgt das Risiko, dass Fehler unbemerkt bleiben, weil wir den Prozess dahinter nicht sehen. Deshalb sind KI-Entscheidungen immer mit Vorsicht zu genießen. In Notenfindung oder wichtiger Beurteilung haben sie ohne menschliche Prüfung nichts verloren.
Auch aus ethischer Sicht: Transparenz und Nachvollziehbarkeit sind Grundsätze guter Pädagogik. Wir müssen Schüler*innen begründen, warum etwas so ist. Bei KI-generierten Ergebnissen kannst du das nur eingeschränkt. Daher: Setze KI in Bereichen ein, wo diese Intransparenz kein großes Problem darstellt (z.B. Materialvorschläge, die du eh prüfst). Wo es wichtig ist (Noten, Versetzungen, Diagnosen), sollte KI maximal als Hilfsmittel im Hintergrund dienen, aber nie als Entscheidungsgrundlage.
4. Abhängigkeit und Kompetenzverlust:
Je mehr wir uns auf KI verlassen, desto größer die Gefahr, dass eigene Fähigkeiten verkümmern. Stell dir vor, du lässt KI jeden Elternbrief formulieren – irgendwann könntest du unsicher werden, selbst einen zu schreiben. Ähnliches bei Schüler*innen: Wenn sie bei jeder Hausaufgabe KI „mitdenken“ lassen, lernen sie vielleicht weniger selbstständiges Formulieren oder Recherchieren. Diese Abhängigkeitsgefahr müssen wir im Blick behalten. Für dich heißt das: Mach es dir ruhig mit KI bequem, aber halte deine fachlichen und didaktischen Fähigkeiten warm. Nutze KI gezielt, aber nicht so, dass du ohne sie plötzlich aufgeschmissen wärst. Vielleicht nimmst du dir gelegentlich bewusst vor: „Dieses Arbeitsblatt erstelle ich mal ohne KI, just to keep in shape.“
Bei Schüler*innen bedeutet das: Wenn sie KI nutzen dürften, immer darauf achten, dass sie den Kern der Kompetenz trotzdem üben. Beispiel: Schüler sollen einen Aufsatz schreiben. Erlaubst du KI-Hilfe, dann vielleicht erst nachdem sie selbst einen Entwurf geschrieben haben (erst selbst denken, dann KI als kritischen Feedbackgeber). So lernen sie trotzdem das Schreiben, nutzen KI aber zum Verbessern.
5. Fehlurteile und unethische Anwendungen:
Angenommen, jemand käme auf die Idee, KI für automatisierte Notenvergabe einzusetzen – das wäre hochproblematisch. KI kann vielleicht formal einen Aufsatz bewerten, aber berücksichtigt sie Kreativität? Kontext? Persönliche Entwicklung? Wohl kaum ausreichend. Es besteht das Risiko, dass KI-basierte Beurteilungen unfair sind. Genauso könnte eine KI zum Beispiel in Überwachungsszenarien missbraucht werden (z.B. automatische Gesichtserkennung im Schulhof – da sträuben sich zu Recht alle dagegen). Hier musst du als Lehrkraft eine ethische Haltung bewahren: Nicht alles, was technisch geht, ist pädagogisch wünschenswert. Wir wollen KI nutzen, um Kinder zu fördern, nicht um sie zu bestrafen oder zu kontrollieren. Der Einsatz von KI muss immer mit unseren Bildungswerten im Einklang stehen – Chancengerechtigkeit, Datenschutz, Freiheit, Persönlichkeitsentwicklung.
Zusammengefasst: Die Risiken beim KI-Einsatz umfassen falsche oder verzerrte Inhalte (Halluzinationen, Bias), mangelnde Transparenz in Entscheidungen, mögliche Über-Abhängigkeit und ethische Fehltritte. Das klingt jetzt viel, aber keine Angst: Indem du dir dieser Punkte bewusst bist, kannst du gegensteuern. Du wirst zum Beispiel automatisch KI-Ausgaben kritisch lesen, diverse Perspektiven einbauen und KI nie unkontrolliert „walten lassen“. Genau dieses kritische Mindset wollen wir fördern – bei uns selbst und perspektivisch auch bei Schüler*innen.
Bevor wir zu Datenschutz & Ethik (Lektion 5) kommen, noch zwei positive Perspektiven trotz aller Risiken:
- Viele Probleme wie Bias und Halluzinationen werden kontinuierlich verbessert. Die Forschung arbeitet daran, KI erklärbarer und verlässlicher zu machen. Wir als Lehrkräfte können durch Rückmeldung und bewusste Nutzung dazu beitragen (z.B. Fehlerberichte geben).
- KI zwingt uns, über unsere pädagogischen Kernwerte nachzudenken: Was macht guten Unterricht aus? Was soll ein Kind selbst leisten, wo darf es Hilfe holen? Diese Reflexion ist gesund. Sie hilft, KI genau an den Stellen einzusetzen, die wirklich einen Mehrwert bieten, und an anderen Stellen bewusst nicht.
