Im Informatikunterricht stehe ich oft vor der Herausforderung, komplexe Themen wie Künstliche Intelligenz (KI) so aufzubereiten, dass sie greifbar bleiben – auch ohne dass die Schüler:innen tiefstes mathematisches Know-how über neuronale Netze besitzen.
Häufig wird die KI wie eine Blackbox genutzt: Ich schmeiße Daten rein und schaue mal was rauskommt ohne, dass ich genau verstehe, was diese Blackbox eigentlich tut. Um die Blackbox ein wenig verständlicher und somit zu einer „Graybox“ werden zu lassen, haben wir im Unterricht eine Kamera genutzt, die Bilder aufnimmt, zu einem Server schickt und dann mithilfe von KI diese Bilder auswertet. Diese Box konnte dank der Unterstützung und Förderung der KI Klimabox gebaut werden und verbindet Hardware-Programmierung, Netzwerktechnik und Bildung für nachhaltige Entwicklung auf eine sehr haptische Weise.

Das KI-Klima-Paradoxon als Einstieg

Eigentlich passen KI und Nachhaltigkeit nicht zusammen. Der enorme Energiebedarf für das Training großer Modelle und die Kühlung der Rechenzentren sind ökologisch problematisch. Doch gleichzeitig bietet uns KI die Chance, komplexe Daten z.B. zur Stadtplanung so zu analysieren, wie wir es allein kaum könnten. Diesen Spannungsbogen nutzen wir als Ausgangspunkt für unser Projekt. In der KI Klimabox findet sich zum Beispiel der Comic A Pigeon’s Tale mit dem sich dieses Spannungsfeld wunderbar erarbeiten lässt.

Die Inspiration: Eine „Blackbox“ für den Unterricht

Inspiriert von der „Poetry Camera“ wurde eine Box gebaut, die zunächst bewusst als „Blackbox“ fungiert. Das ermöglicht es uns, im Informatik-Pflichtfach auf verschiedenen Abstraktionsebenen zu arbeiten:

  • Netzwerkebene: Wie kommt das Bild von der Kamera über den Smartphone-Hotspot ins Netz? Was ist eine API?
  • Datenebene: Was ist überhaupt ein Bild? Wie wird es gespeichert? Warum dauert die Datenübertragung manchmal länger?
  • KI-Ebene: Wir untersuchen den Unterschied zwischen erkennender KI (was ist auf dem Bild?) und generativer KI (welche Lösungen werden vorgeschlagen?). Woher kommt die KI auf ihre Ideen?

Das technische Herzstück ist ein ESP32-S3 mit Kamera in einem 3D-gedruckten Gehäuse, kombiniert mit einem Bondrucker, einem Akku samt Ladeelektronik und einem Auslöser-Knopf. Um die Schwelle für die Arbeit mit der Box möglichst niedrig zu halten, bedarf es während der Nutzung keiner Programmierkenntnisse, sondern nur einem Texteditor mit dem eine auf der SD Karte liegende Textdatei verändert werden kann. Dort liegt zum Beispiel der System-Prompt, der definiert, wie die KI (in diesem Fall Gemini) auf die Fotos reagiert. Um konkrete auf das Thema Nachhaltigkeit zu zielen, könnte man einen der drei folgenden Prompts nutzen:

  1. Der „Grüne Stadtplaner“ (Fokus Entsiegelung):„Analysiere das Foto auf versiegelte Flächen. Schlage drei konkrete Maßnahmen vor, wie man diesen Ort ökologisch aufwerten könnte (z. B. Fassadenbegrünung oder Entsiegelung). Antworte in kurzen Stichpunkten.“
  2. Der „Biodiversitäts-Check“ (Fokus Lebensraum):„Untersuche das Bild nach Potenzialen für mehr Artenvielfalt. Welche heimischen Pflanzen oder Nisthilfen könnten hier installiert werden, um Insekten oder Vögeln einen Lebensraum zu bieten? Antworte in kurzen Stichpunkten.“
  3. Der „Klima-Resilienz-Coach“ (Fokus Hitze & Wasser):„Identifiziere potenzielle Hitzeinseln. Wie könnte man diesen Ort durch Beschattung oder Wasserelemente kühlen? Antworte in kurzen Stichpunkten.“

Natürlich bietet schon die Formulierung des Prompt ein großes Lern- und Erprobungsfeld für die Schüler:innen. Welcher Prompt ist geeignet, um eine konkrete Fragestellung zu bearbeiten? Was macht einen guten Prompt eigentlich aus und warum kommen bei identischer Fragestellung eigentlich unterschiedliche Antworten von der KI?

Ein möglicher Unterrichtsablauf: Von der Theorie zur Analyse

Zuerst überlegen die Schüler:innen ohne Technik: Wie könnten wir z.B. unseren Schulhof nachhaltiger gestalten? Sie formulieren eigene Ideen und Lösungsvorschläge. Dann ziehen sie mit der Box los. Ein Knopfdruck, das Bild wird übertragen, und Sekunden später spuckt der Bondrucker die Analyse aus. Keine Möglichkeit noch einmal nachzufragen, eine reine Ideensammlung.

Der entscheidende Teil folgt danach: Die Bilder werden auf der SD-Karte gespeichert, sodass wir im Nachgang die Ausdrucke den Fotos zuordnen können. Wir diskutieren: „Hat die generative KI die Umgebung wirklich erkannt oder nur geraten?“ oder „Warum ist der Vorschlag der KI an dieser Stelle vielleicht gar nicht umsetzbar?“ Das schult die AI Literacy ungemein, da häufig die Antwort einer KI für wahr gehalten wird. Dadurch, dass sich die Schüler:innen aber zunächst Gedanken gemacht haben, sind sie in der Lage sich kritisch mit der Antwort der KI auseinanderzusetzen.

Ein erster Zugang

Zu Beginn habe ich eine Vielzahl an thematischen Zugriffspunkten anhand der Box aufgezählt. In diesem Fall habe ich den Fokus auf die Nutzung der KI zum Ausbau der Nutzungskompetenz von KI beschrieben und die restlichen Themen weggelassen. Schön wäre es natürlich alle Themen zu behandeln, doch oft fehlt hier die Zeit. Im nächsten Durchlauf möchte ich versuchen einen Fächerübergriff z.B. mit der Biologie zu realisieren, um ein bisschen mehr Zeit für die technische Ebene zu gewinnen.

Zukunftsvision: Wie könnte es weitergehen?

Die KI Kamera senkt die Hürde für die Nutzung einer KI und ermöglicht so auch kleineren Kindern erste Kontakte mit der Nutzung von KI. Es wäre zum Beispiel denkbar im Rahmen von der Arbeit zu Kinderrechten zunächst zu überlegen, welche Kinderrechte in den Städten umgesetzt werden könnten. Dazu haben die meisten Kinder sehr kreative Ideen. Im Nachgang könnten Sie dann ebenfalls durch die Stadt laufen und sich weitere Ideen geben lassen. Auch hier wäre die anschließende Diskussion der Ergebnisse natürlich sehr wichtig.

Theoretisch ließe sich die Box darüber hinaus leicht erweitern: Eine spannende Vision ist die Integration einer Sprachausgabe. Man stelle sich vor, wir statten Menschen mit Sehbeeinträchtigungen mit einer solchen Box aus: Ein Knopfdruck, die generative KI analysiert die Umgebung und beschreibt sie in Echtzeit über einen Lautsprecher. So wird aus einem Projekt zur Stadtplanung ein inklusives Assistenzsystem.

Ja, ich weiß 😉 Das Design ist noch deutlich verbesserungswürdig – das haben mir meine Schüler:innen auch gesagt. Das kommt dann für die nächste Version.

Hinweis: Natürlich muss vor der Nutzung der Kamera über Bildrechte gesprochen werden, da die Bilder auf die Server von Google hochgeladen werden … ein weiterer spannende Anknüpfungspunkt.

Lem Informatik, Medienkompetenz, Pflichtfach