An US-Hochschulen rollt derzeit eine frische Welle von AI-Tools an. Während viele Studierende Chatbots vor allem dafür einsetzen, sich fertige Lösungen für Aufgaben geben zu lassen, verfolgt ein neues System den gegenteiligen Ansatz: Es liefert keine direkten Antworten und bringt Lernende stattdessen Schritt für Schritt dazu, selbst zu denken.
Wie die University of Wisconsin–La Crosse die sokratische Methode als AI-Cheftrainer nutzt
Ein Forschungsteam an der University of Wisconsin–La Crosse hat dafür einen besonderen Chatbot gebaut, der sich an einem Philosophen aus der Antike orientiert. Anstelle von Erklärvideos oder Musterlösungen arbeitet das System mit einem strukturierten Fragenkatalog nach der sokratischen Methode – gewissermassen als „Geburtshilfe“ für eigene Gedanken.
Fragt etwa ein Student, wie sich die Wachstumsrate des Bruttoinlandsprodukts berechnet, rückt die AI nicht einfach mit der Formel heraus. Sie setzt bei den Grundlagen an und stellt zunächst scheinbar einfache Rückfragen:
- Was misst das Bruttoinlandsprodukt überhaupt?
- Welche Grössen vergleichst du, wenn du von Wachstum sprichst?
- Über welchen Zeitraum schaust du dir die Veränderung an?
Mit jeder Antwort lotsst der Chatbot die Lernenden näher an die Lösung, ohne den entscheidenden letzten Schritt vorwegzunehmen.
„Der Kern des Systems: Kein vorgekautes Wissen, sondern konsequentes Hinterfragen, bis der Groschen selbst fällt.“
Damit der Inhalt sauber zum Kurs passt, wurde das System mit vollständigen Transkripten der Makroökonomie-Vorlesungen der Uni trainiert. Die AI darf ausschliesslich mit diesem Material arbeiten und hat keinen Internetzugang. So bleibt alles eng am offiziellen Curriculum; externe Quellen oder Halbwissen aus dem Netz kommen gar nicht erst hinein.
Was passiert, wenn die AI keine Antworten liefern darf
Die Forschenden wollten herausfinden, wie sich diese Art der (für viele) „nervigen“ Unterstützung auf Prüfungsleistungen auswirkt. Im Frühjahr 2025 teilten sie 140 Studierende aus einem Makroökonomie-Kurs in vier Gruppen ein:
| Gruppe | Arbeitsweise |
|---|---|
| 1 | Allein mit dem Frage-Chatbot |
| 2 | Nur klassische Gruppenarbeit, keine AI |
| 3 | Zuerst mit Chatbot arbeiten, danach in der Gruppe diskutieren |
| 4 | Kontrollgruppe, keine besondere Unterstützung |
Die Ergebnisse wurden in einem Working Paper auf SSRN veröffentlicht – und sie fallen klar aus. Entscheidend ist dabei weniger nur, ob Studierende AI verwenden, sondern vor allem wie sie sie nutzen.
„Wer aktiv mitfragt und mitdenkt, gewinnt deutlich. Wer sich passiv von AI „füttern“ lässt, fällt zurück.“
Aktive Nutzer legen zu, passive Nutzer stürzen ab
Am stärksten schnitt die Mischgruppe ab: zuerst allein mit der AI arbeiten und danach in Teams weiterdiskutieren. Beim dritten Test lagen ihre Resultate im Schnitt 12 Punkte über der Kontrollgruppe – ein spürbarer Sprung innerhalb eines einzigen Semesters.
Ganz anders verlief es bei Studierenden, die sich im Alltag auf bequeme AI-Antworten stützten und das Tool eher als Lösungsgenerator verstanden. Als diese Krücke in einer späteren Prüfung nicht mehr verfügbar war, sanken die Leistungen im Durchschnitt um 8 Punkte.
Die Forschenden beschreiben das als „kognitive Gehhilfe“: Wer sich daran gewöhnt, Aufgaben per Klick „lösen“ zu lassen, trainiert das eigene Problemlösen immer weniger. Wenn die Unterstützung dann plötzlich wegfällt, werden die Lücken schonungslos sichtbar.
Fehler als Startsignal für neue Fragen
Ein besonders interessanter Punkt ist, wie das System mit Fehlantworten umgeht. Der Chatbot weist falsche Antworten nicht einfach frontal zurück, sondern macht sie zum Ausgangspunkt für die nächste Runde an Fragen.
Verwechselt ein Student beispielsweise reales und nominales Bruttoinlandsprodukt, folgt keine „Rotstift-Antwort“. Stattdessen startet die AI eine neue Schleife:
- Was beschreibt ein Preisindex?
- Wie verändert sich dieser Index über die Zeit?
- Welche Rolle spielt das Preisniveau bei Wachstumsvergleichen?
Ähnlich läuft es bei anspruchsvolleren Themen wie Inflation. Zeigt eine Antwort, dass die Zusammenhänge zwischen Geldmenge, Umlaufgeschwindigkeit und Preisniveau nicht sauber sitzen, kommen drei oder vier präzise Rückfragen. Das Ziel: Studierende sollen selbst erkennen, welcher gedankliche Baustein nicht passt.
„Die AI knipst kein grünes oder rotes Lämpchen an – sie hält den Spiegel vor und zwingt zur Selbstkorrektur.“
Was die Kombination mit Gruppenarbeit bringt
Am wirksamsten war das Vorgehen dort, wo die AI bewusst nur den Einstieg bildete. Studierende arbeiteten zunächst allein mit dem Chatbot und mussten sich individuell durch die Fragen „hindurcharbeiten“. Danach trafen sie sich in kleinen Gruppen und legten ihre Gedankengänge offen.
Diese Kombination sorgt für mehrere Lerneffekte:
- Jede Person bringt einen eigenen Lösungsweg in die Gruppe mit.
- Widersprüche fallen schneller auf und werden diskutiert.
- Fachbegriffe und Formeln sitzen besser, weil sie in eigenen Worten erklärt werden müssen.
- Zurückhaltende Studierende haben dank der AI-Vorarbeit mehr Sicherheit, überhaupt etwas beizusteuern.
Die Forschenden verweisen zudem auf Arbeiten aus Harvard, die schon früher gezeigt haben: Geführtes Fragen verankert Wissen langfristig besser als das blosse „Hinwerfen“ von Informationen. Die neue Studie ergänzt das um den Befund, wie stark sich der Effekt entfaltet, sobald eine soziale Komponente dazukommt.
Warum diese AI so anders tickt als ChatGPT & Co.
Sprachmodelle wie ChatGPT geben in der Regel direkte Antworten. Genau das macht sie attraktiv – und gleichzeitig heikel im Lernkontext. Viele Studierende holen sich Textbausteine für Essays, Rechenwege für Aufgaben oder gleich komplette Programmierlösungen, ohne den Stoff wirklich zu durchdringen.
Das neue System stellt dieses Prinzip auf den Kopf. Die zentralen Merkmale:
- keine fertigen Lösungen, nur Rückfragen
- Beschränkung auf den Stoff der eigenen Lehrveranstaltung
- Fehler werden nicht „wegradiert“, sondern produktiv genutzt
- Fokus auf Verständnis statt Tempo
Damit entsteht für Hochschulen eine echte Chance: AI lässt sich in Lehrveranstaltungen integrieren, ohne dass Hausaufgaben zur Copy-&-Paste-Übung verkommen. Stattdessen funktionieren die Tools als Trainingspartner für strukturiertes Denken.
Chancen und Risiken für den Hochschulalltag
Trotzdem bleibt es ein Balanceakt. Ist der Chatbot zu streng und frustrierend, verlieren Studierende schnell die Motivation. Ist er zu nachgiebig und verrät doch halbe Lösungen, kippt das System wieder Richtung Antwortmaschine.
Die Studie macht aber auch deutlich: Mit klaren Leitplanken lässt sich viel gewinnen.
- AI darf nie die einzige Instanz sein; es braucht Präsenzlehre und Austausch.
- Lehrende müssen den Einsatz transparent regeln: Was ist erlaubt, was nicht?
- Aufgaben sollten so gestaltet sein, dass reines Abschreiben wenig bringt.
Gleichzeitig stellt sich die Fairnessfrage: Wenn ein Teil der Studierenden strenge, fragebasierte Systeme nutzt, andere aber frei zugängliche, sehr leistungsfähige Chatbots, entstehen rasch ungleiche Voraussetzungen. Darum diskutieren einige Hochschulen, AI-Tutoren zentral bereitzustellen und offene Antwortbots in Prüfungsphasen stärker einzuschränken.
Wie sich das Konzept auf andere Fächer übertragen lässt
Makroökonomie passt gut zu dieser Art von Frage-Stufen, weil Begriffe wie Inflation, Wachstum oder Produktivität logisch aufeinander aufbauen. Das Grundprinzip lässt sich jedoch deutlich breiter anwenden:
- Mathematik: Beweise schrittweise herleiten statt fertige Lösungswege übernehmen.
- Informatik: Erst Fragen zu Datenstrukturen und Algorithmen klären, bevor Code entsteht.
- Jura: Zuerst prüfen, welche Tatbestandsmerkmale erfüllt sind, bevor ein Ergebnis genannt wird.
- Medizin: Symptome und Differenzialdiagnosen abfragen, ohne sofort eine Diagnose auszugeben.
Interessant wird vor allem, wie schnell Lehrende eigene Fragesets erstellen können. Je einfacher sich Vorlesungsunterlagen in solche Systeme einspeisen und fein steuern lassen, desto realistischer ist ein breiter Einsatz – auch an Hochschulen im deutschsprachigen Raum.
Am Schluss bleibt eine simple, aber unbequeme Einsicht: AI kann Denken nicht ersetzen, sie kann es höchstens anstossen. Die Frage ist längst nicht mehr, ob Studierende digitale Helfer nutzen, sondern wofür – als Antwortautomat oder als hartnäckiger Sparringspartner für den eigenen Kopf.
Kommentare
Noch keine Kommentare. Seien Sie der Erste!
Kommentar hinterlassen