KI-Systeme, die für den Einsatz in Bildungsumgebungen

Habe das Thema hier nicht gefunden.
Dann habe ich habe mal DeepSeek gefragt, und hier seine Antwort:

[…]

Ja, es gibt mehrere KI-Systeme, die für den Einsatz in Bildungsumgebungen besonders geeignet sind – je nach Anforderungen an Datenschutz, Kosten, Technik und pädagogischem Mehrwert. Hier eine Übersicht:


1. Open-Source-Modelle (selbst hostbar, datenschutzkonform)

  • Llama 3 (Meta)

    • Vorteile: Stark in Textgenerierung, Code-Hilfe und Wissensfragen. Kann lokal auf Servern installiert werden (Daten bleiben intern).
    • Nachteile: Benötigt GPUs/TPUs für Performanz.
    • Einsatz: Hausaufgabenhilfe, Recherche-Tool.
  • Mistral 7B/8x22B

    • Vorteile: Leichtgewichtig, effizient, läuft auch auf moderater Hardware. Gute Balance zwischen Leistung und Ressourcenverbrauch.
    • Nachteile: Englisch-lastig, benötigt Feinabstimmung für deutsche Bildungsinhalte.
  • BloombergGPT (oder Education-optimierte Varianten)

    • Vorteile: Spezialisiert auf strukturierte Daten und Faktenwissen, weniger Halluzinationen.
    • Nachteile: Weniger kreativ im Vergleich zu anderen Modellen.

2. Kommerzielle APIs mit Bildungsfokus

  • Claude 3 (Anthropic)

    • Vorteile: Starke Ethik- und Sicherheitsfilter, transparente Antworten.
    • Nachteile: Cloud-basiert (Daten verlassen möglicherweise die EU).
  • Google Gemini Education

    • Vorteile: Integration mit Google Classroom, automatische Zitathinweise, DSGVO-konforme Verträge.
    • Nachteile: Abhängigkeit von Google-Infrastruktur.
  • Microsoft Azure OpenAI + Copilot

    • Vorteile: Kombiniert GPT-4-Turbo mit Microsofts Bildungs-Tools (Teams, Office).
    • Nachteile: Kostenintensiv bei hohem Nutzungsaufkommen.

3. Spezialisierte Bildungslösungen

  • Khanmigo (Khan Academy)

    • Vorteile: Didaktisch optimiert für Mathe/Naturwissenschaften, interaktive Tutor-Funktionen.
    • Nachteile: Bislang nur auf Englisch verfügbar.
  • Alelo

    • Vorteile: KI-gestützte Sprachlern-Tools mit pädagogischen Metriken.
    • Nachteile: Fokus auf Sprachunterricht, weniger Allgemeinwissen.
  • Cognii

    • Vorteile: Automatisiertes Feedback für Aufsätze/Essays, adaptiv an Lehrpläne anpassbar.

4. Nischenlösungen für Schulen

  • Adaptive Lernplattformen:
    • DreamBox (Mathe) oder Century Tech – KI passt Aufgaben individuell an Schüler:innen an.
  • Open-Source-Edge-KI:
    • Raspberry Pi-basierte Mini-Server mit TinyML-Modellen (z. B. BERT-Tiny) für datensparsame Anwendungen.
  • Sprachassistenten:
    • MyCroft (Open Source) oder Alexa for Education – für barrierefreie Bedienung.

Entscheidungshilfe: Welches System passt?

Kriterium Empfehlung
Maximaler Datenschutz Llama 3/Mistral (On-Premises)
Kostenoptimiert Open-Source-Modelle + Selbsthosting
Plug-and-Play Google Gemini Education oder Microsoft Copilot
Fach-Spezialisierung Khanmigo (STEM) oder Cognii (Schreibfähigkeiten)

Wichtige Schritte zur Umsetzung

  1. Datenhoheit klären: On-Premises vs. Cloud.
  2. Content-Filter testen: Blockieren von unangemessenen/ungesicherten Inhalten.
  3. Kostenmodell vergleichen: API-Gebühren vs. Hardware-Investitionen.
  4. Pilotphase starten: Testen mit einer Klasse, Feedback sammeln.

Tools wie Llama 3 oder Mistral sind ideal, wenn Sie maximale Kontrolle über Daten und Anpassung wünschen – aber technisches Know-how voraussetzen. Für „fertige“ Lösungen lohnt sich der Blick auf Gemini Education oder Microsofts Bildungs-KI.

Haben Sie bereits eine Präferenz für bestimmte Funktionen (z. B. Sprachunterstützung, Mathe-Tutoring)? :blush:

[…]

Morgen,
ich werde das Gefuehl nicht los, dass die ganzen kostenlosen „on-premise“-Loesungen (Begriff musste wohl erfunden werden, da der Trend zur Cloud geht) eigentlich nur Enttaeuschungen bereithalten, lass mich da aber gerne eines Besseren belehren. Meine Versuche mit selbsgehostetem Llama verbuche ich als gescheitert, ich versteh aber noch nichtmal woher da die Daten kommen bzw. kommen koennen. Die KI selbst bringt ja ohne Trainingsdaten nix, die Daten sind die Kronjuwelen und das was ich bei Llama eingepflegt habe ist Schrott.
Ich vermute (!), dass auch die Hauptmagie in den Subsystemen liegt, die nicht freigegeben werden, sprich die Geschmeidigkeit mit der ChatGPT, Claude und Konsorten zu bedienen sind, gibt’s nicht fuer umme, maximal die dahinterliegende KI.

Wenn ich falsch liege, dann macht mir das diesmal eine grosse Freude, her mit den Infos.

Gruss Harry

Hi,

fobizz | Tools, KI, Fortbildungen & Unterrichtsmaterial für Lehrkräfte bietet einiges an. Ich kann dazu aber nichts weiter sagen, da ich von denen am Wochenende auch erst erfahren habe.

Auf den Chemnitzer Linux-Tagen hat am Wochenende Herr Knopper einen Vortrag gehalten: CLT2025 · Vortrag: Chancen + Risiken generativer KI in Unterricht + Prüfungen (Videoaufzeichnung). Darin hat er auch ein paar seiner Webfrontends gezeigt, die man zum Ausprobieren nutzen kann. Im Vortrag zeigt er lokale Modelle auf einem Raspberry Pi 5 mit 16 GB RAM und SSD.

Zum Thema lokale Modelle bezogen auf die aktuell gehypte generative KI:
Die Intelligenz in „generativer KI“ ist nicht intelligent, sondern erscheint nur so täuschend echt. In Wahrheit ist es ein Automat, der anhand des KI-Trainings mit sehr hoher Wahrscheinlichkeit sagen kann, welche Buchstaben bzw. Worte auf die vorigen Buchstaben bzw. Worte folgen. Es ist letztlich „alles nur Statistik“. Daraus ergibt sich dann auch, dass ein KI-Modell mit 7 Milliarden Parametern bessere Antworten liefert als eins mit nur 3 Milliarden Parametern, einfach weil es auf mehr Trainingsdaten zurückgreifen kann.
Ollama Search gibt eine Übersicht, welche Modelle sich wofür eignen, da die Anbieter natürlich auch auf Ziele hintrainiert haben. Dort siehst du auf der Detailseite zu jedem Modell, dass es Destillate gibt, d.h. das große Sprachmodell wurde genommen und in der Größe (Speicherverbrauch in Gigabyte) beschnitten, was auch bedeutet, dass die Destillate weniger genau sind als die größte Version. Nun gilt es für sich das Modell mit der kleinsten Größe, den erträglichen Antwortzeiten und noch akzeptablen Antworten zu finden.
Meine Tests mit Ollama auf nicht ganz aktuellem Gaming-PC zeigten z.B., sobald das Modell nicht mehr vollständig in den VRAM der Grafikkarte passte (bei mit 8 GB), stiegen die Antwortzeiten um das zehnfache. Wenn ich damit leben konnte, dann konnte ich dafür wiederum ein Modell bis 60 GB Größe in den RAM laden (macht Ollama automatisch, wenn der VRAM zu klein ist) und bessere Antworten erhalten.

Auf https://open.hpi.de/ gibt es in der Rubrik „Big Data and AI“ etliche Kurse auf Einsteigerniveau.

VG
Buster

2 „Gefällt mir“

Hi zusammen, willkommen „zurück“ @andy :slight_smile: ,

die originalfrage sollte man wohl so beantworten: „Hängt davon ab“.

Danke an @Buster für die beispielhafte Antwort, wenn man Ollama mit 8GB Grafikkarte nutzt. Ebenso für Knoppers Folien (woraus sich auch „ollama“ als Antwort ergibt).

Danke an @irrlicht , der auch seine Experimente mit Llama als Rückschlag bewertet.

Ich würde die Frage neu formulieren, weil ich „Datenschutz“ gerne so priorisieren würde, dass „google gemini education“ et. al. schon gar nicht auftauchen kann.

Zudem hängt es wohl wirklich davon ab, was du machen willst. Was soll das KI-System leisten (eine Auswahl: Schülerarbeiten einscannen und korrigieren, Bilder generieren, Persona-Chats simulieren, Informatik-Code generieren, Matheaufgaben binnendifferenziert erstellen)

Wir haben hier fobizz abonniert und bislang geht mir das ganz hinten vorbei, aber wenn ich mich mit eigener KI und deren Leistung befassen möchte, dann hab ich wenigstens was zum Vergleichen.

Ich bin noch nicht schlauer geworden, ob es sich überhaupt lohnt, selbst mit dem hosting anzufangen, wenn man a.) einen Raspberry oder b.) einen 5000€-Rechner zur Verfügung/Bestellung hat. Dazu Links mit einfacher Websuche gefunden:

Zuletzt: openwebui.com sollte wohl erwähnt werden, weil es wohl die Installation einfach machen kann.

VG, Tobias

nach etwas mehr Recherche auf ollama oder https://openwebui.com/models?category=education wird mir schlecht, aber klar, was hatte ich erwartet? Die TOP 5 in der Kategorie „Education“: zwei mal „uncensored“ (baut dir Bomben), einmal „Blackhat Hacker“ (erstellt dir malware)

O

Hier noch ein Paper zum Thema, warum einem schlecht werden kann: LLM Safety for Children Warning: The paper contains examples which the reader might find offensive. (Link geht gleich zu den Conclusions, das reicht schon).

Ich sehe bei generellen Modellen wirklich Schwierigkeiten, das zu verantworten, oder eben erst ab 16?
Bei „coding“-Modellen oder expliziten Sprachassistenten oder ähnlichem sehe ich noch Möglichkeiten, dass es inhaltlich begrenzt wird und jail-breaks die Ausnahme bleiben.
Und selbst dann - going down the rabbithole -

  • die ethische Dimension des Urheberrechts der Trainingsdaten
  • Halluzinationen
  • zensur, die man nicht will, wie deepseek + Tianmen
  • Bias der Antworten durch Bias in Trainingsdaten

Boah, echt kein Bock drauf. Ich warte drauf, dass ich eine Gefährdungsbeurteilung schreiben muss und Eltern mir eine Einverständniserklärung geben müssen, das uns aus der Haftung nimmt, wenn das Kind psychischen Schaden nimmt…

1 „Gefällt mir“