Testfragen in Moodle erstellen mit Hilfe eines LLM 3.0
Lesezeit: ca. 6 Minuten – Wörter: 1.274 Ende 2024 haben wir bereits unter https://bildungssprit.de/blog/ testfragen-in-moodle-erstellen-mit-hilfe-eines-llm gezeigt, wie sich mit einem LLM schnell Testfragen im GIFT-Format erstellen lassen. Damals waren das unsere ersten Schritte, ChatGPT wirklich als das zu nutzen, was es sein kann: ein mächtiges Werkzeug, das unsere Arbeit produktiver und wirksamer macht. Mittlerweile sind sowohl die Sprachmodelle als auch wir bei Bildungssprit wesentlich weiter in unserem Können… Und so war es nun der folglich richtige Schritt, den damaligen Prompt mit der Hilfe der wesentlich besseren Systeme nicht nur anzupassen, sondern auch zu optimieren. Herausgekommen ist dabei ein so mächtiger Prompt, dass dieser als ganze Markdown-Datei zur Verfügung steht. Zudem können wir gar nicht mehr unbedingt von einem „Update“ des alten XML-Promptes sprechen und haben ihn gleich Version 3 getauft. Nachfolgend wird die Datei – die weiterhin ein Prompt ist, jedoch ein extrem großer – in Ihren Änderung, Eigenschaften und Einsatzempfehlungen beschrieben. Was der neue Prompt leistet Der neue Prompt erzeugt nicht einfach Fragen. Er strukturiert einen Prozess. Er fragt nicht nur Inhalte ab, sondern klärt auch den Zusammenhang, in dem diese Fragen später stehen sollen: Wer soll mit ihnen arbeiten? Wie anspruchsvoll sollen sie sein? Und wofür werden sie überhaupt gebraucht? Genau darin liegt ein wesentlicher Unterschied. Die Fragen entstehen nicht mehr nur formal korrekt, sondern in einem didaktischen Rahmen, der sie anschlussfähiger macht. Technische Stärke: Nähe zu Moodle Der Prompt arbeitet konsequent im Moodle-XML-Format. Das ist technisch deshalb bedeutsam, weil die Fragen nicht nur als Text entstehen, sondern bereits in einer Form, die sich an der späteren Nutzung in Moodle orientiert. Rückmeldungen können mitgeführt, Kategorien vorbereitet und Strukturen bereits vor dem Import angelegt werden. Technik wird damit nicht zum Selbstzweck. Sie dient vielmehr dazu, dass das, was im Chat entsteht, sich sauberer in die Logik der Fragebank einfügt. Didaktische Verschiebung: Vom Output zum Prozess Die entscheidende Veränderung liegt nicht allein im Format, sondern in der Haltung. Fragen entstehen nicht mehr als schnelle Ausgabe, sondern als Ergebnis von Entscheidungen. Der Prompt zwingt dazu, Dinge zu klären, die im Alltag leicht übersprungen werden: den Schwierigkeitsgrad, die Zielgruppe und die Art der Rückmeldung an Lernende. Das kostet zunächst etwas mehr Zeit. Zugleich entsteht dadurch eine andere Qualität, weil die Fragen stärker an ihrem pädagogischen Zweck ausgerichtet werden. Genau darin liegt der eigentliche Gewinn. Anwendung und Ablauf Der Start des Prompts erfolgt nicht von selbst, sondern über die bereitgestellte Markdown-Datei. Sie muss entweder als unten downloadbare .md-Datei in das verwendete LLM hochgeladen oder inhaltlich in den Chat kopiert werden. Beides dient dazu, die Konversation auf derselben Grundlage zu beginnen und dem Modell den vollständigen Ablauf vorzugeben Erst danach setzt der eigentliche Dialog ein. Der Prompt beginnt dann nicht mit Fachsprache, sondern mit einer kurzen Orientierung und fragt zunächst nur, welcher Arbeitsmodus passt. Zur Auswahl stehen drei Modi: Einsteiger, Komplex und Kompakt. Drei Modi mit unterschiedlichem Schwerpunkt Der Einsteiger-Modus ist für Lehrkräfte gedacht, die mit Moodle, XML oder dem Arbeiten mit einem LLM noch wenig Erfahrung haben. Sein Schwerpunkt liegt auf Führung, Übersicht und Entlastung. Der Prompt erklärt knapp, fragt schrittweise und arbeitet mit sinnvollen Standards, damit der Weg zur ersten brauchbaren Fragendatei nicht durch zu viele Entscheidungen blockiert wird. Der Komplex-Modus richtet sich an Nutzerinnen und Nutzer, die stärker in die Gestaltung eingreifen möchten. Hier liegt der Schwerpunkt auf Steuerung und Differenzierung. Der Prompt fragt genauer nach Struktur, Fragetypen, Anforderungsstufen und weiteren Einstellungen, damit die Ergebnisse nicht nur funktionieren, sondern auch gezielter an einen konkreten didaktischen Einsatz angepasst werden können. Der Kompakt-Modus ist für Situationen gedacht, in denen möglichst wenig Dialogschritte möglich oder gewünscht sind. Das kann an knapper Zeit liegen, an begrenzter Konzentration oder auch an den Nutzungsgrenzen eines freien LLM-Zugangs. Sein Schwerpunkt liegt auf Tempo, Reduktion und pragmatischer Verwendbarkeit. Er stellt nur die nötigsten Rückfragen und führt möglichst direkt zu einem Ergebnis. Der generelle Ablauf des Chats Unabhängig vom gewählten Modus folgt der Chat einer klaren Grundlogik. Nach dem Start über das Einfügen der Markdown-Datei oder ihren ins Chatfenster kopierten Inhalt klärt der Prompt zuerst den passenden Arbeitsmodus. Danach fragt er nicht alles auf einmal ab, sondern führt Schritt für Schritt durch den Prozess. In der Regel geht es zunächst um die Inhalte oder Materialien, auf deren Grundlage die Fragen erstellt werden sollen. Anschließend werden – je nach Modus mehr oder weniger ausführlich – Fragetyp, Anzahl, Schwierigkeitsgrad und weitere Einstellungen geklärt. Wichtig ist dabei, dass der Prompt den Dialog nicht als technische Checkliste versteht, sondern als geführten Arbeitsprozess. Jede Antwort bereitet den nächsten Schritt vor. Gerade für Lehrkräfte, die im Umgang mit einem LLM noch nicht geübt sind, schafft das Orientierung und verringert die Gefahr, mitten im Ablauf den Überblick zu verlieren. Ausgabe und Umgang mit den Ergebnissen Am Ende erzeugt der Prompt die Fragen im Moodle-XML-Format. Je nach verwendetem LLM und Oberfläche kann das Ergebnis unterschiedlich ausgegeben werden. Manche Systeme liefern direkt eine XML-Datei oder einen klar abgrenzbaren XML-Block. Andere geben den Inhalt zunächst als Plaintext (kopierbarer Text) im Chat aus. Wenn direkt eine Datei erzeugt wird, kann diese gespeichert und anschließend in Moodle importiert werden. Wird der XML-Inhalt dagegen nur als Text ausgegeben, muss er in einen geeigneten Texteditor übernommen und dort als .xml-Datei abgespeichert werden. Wichtig ist dabei, dass der Inhalt unverändert bleibt und als reine Textdatei mit der richtigen Endung gesichert wird. Gerade bei einfacheren oder kostenfreien LLM-Zugängen ist es sinnvoll, damit zu rechnen, dass das Ergebnis zunächst als Text erscheint. Der Prompt sollte daher am Ende nach Möglichkeit auch kurz anleiten, wie dieser Text in einem Editor übernommen, als XML-Datei gespeichert und dann in Moodle weiterverwendet wird. So bleibt der Prozess auch dann praktikabel, wenn das LLM keine fertige Datei ausgibt. der Prompt mit CC-BY-SA-Lizenz ↠ Kopiere den Prompt in den Zwischenspeicher ↞ Prompt Text 📋 Copy Prompt # Moodle XML Mega-Prompt – Fragensammlung erstellen (v4.0) ## DEINE ERSTE ANTWORT Deine erste Antwort muss ALLE der folgenden 5 Punkte enthalten. Lass keinen aus. Gib vor diesen 5 Punkten nichts anderes aus. Punkt 1 – Begruessung: Beginne mit dem Satz „Willkommen beim Moodle-Fragenentwickler von bildungssprit.de!“
Testfragen in Moodle erstellen mit Hilfe eines LLM 3.0 Read More »
KI, moodle, Unterricht

