Intern
  • none
WueDive - Digitale Innovationen in der Lehre

SPIN: Stochastic Processes with Interactions - Next-gen

Projektziel: Entwicklung und Integration eines KI-gestützten Tutors (basierend auf Large Language Models) zur Skalierung und didaktischen Anreicherung eines Next-Generation-Kurses zu "Stochatische Prozesse mit Interaktionen" für die CHARM-EU Allianz.

Status: bis 12/2025

Vorhaben

Das Projekt entwickelt gemeinsam mit der University of Bergen im Rahmen von CHARM-EU einen skalierbaren Kurs, der angepasste Large Language Models (LLMs) integriert, um Lernprozesse zu optimieren, interaktive Materialien bereitzustellen und mathematisch anspruchsvolle Inhalte zugänglich zu machen. Thematisch behandelt der Kurs Netzwerkmodelle, Markov-Prozesse, interagierende Partikelsysteme, statistische Physik sowie neuronale Netze – alles hochrelevante Themen der aktuellen Forschung.

LLMs ermöglichen die interaktive Exploration, Analyse und Simulation dieser Modelle. Ziel ist eine präzise, domänenspezifische LLM-Unterstützung, die differenzierte Lernpfade und adaptierbare Kursstrukturen ermöglicht. Der Kurs fördert Interdisziplinarität zwischen Mathematik, Physik, Informatik und KI, stärkt selbstgesteuertes Lernen und Problemlösungskompetenzen, und sichert durch modulare LLMs sowie wiederverwendbare Materialien Skalierbarkeit und Nachhaltigkeit.

Die didaktische Konzeption basiert auf dem Einsatz von LLMs als adaptive Lernbegleiter, die das Ziel verfolgen, individuelles Engagement und ein vertieftes Verständnis bei Studierenden zu fördern. Der Ansatz nutzt interaktive Dialoge, um Lernende dabei zu unterstützen, eigenständig Wissenslücken zu erkennen, Experimente durchzuführen und Lösungsansätze schrittweise zu optimieren. Dieses prozessorientierte Lernen zielt darauf ab, die Fähigkeit zur kritischen Reflexion über stochastische Modelle komplexer Systeme nachhaltig zu stärken.

Durch feinabgestimmte LLM-Chatfunktionalität, erhalten Studierende 24/7 sofortige Rückmeldungen zu ihren Eingaben, die durch kontextsensitive Erklärungen und praxisnahe Anwendungsbeispiele ergänzt werden. Dieser dynamische Austausch schafft ein zyklisches Lernmodell, in dem theoretische Konzepte durch wiederholtes Anwenden und Anpassen verinnerlicht werden.

Die im Projekt entwickelten Methoden und der modulare Aufbau des KI-Tutors bieten hohes Übertragbarkeitspotenzial. Die Flexibilität des Systems wird durch anpassbare Schwierigkeitsgrade und die Möglichkeit zur Akzentuierung unterschiedlicher Aspekte (Beweise, Simulationen, Algorithmen) gewährleistet. Dies erleichtert nicht nur MINT-Studierenden verschiedener Fachrichtungen (Mathematik, Physik, Informatik, Ingenieurwissenschaften, Biowissenschaften) den Zugang zu fortgeschrittenen Konzepten, sondern das Gesamtkonzept kann als Modell für die KI-gestützte Lehre in anderen komplexen Fachgebieten dienen. Die entwickelten Softwarekomponenten und didaktischen Strategien sind zudem für weitere Kurse innerhalb der CHARM-EU Allianz und darüber hinaus wiederverwendbar.

  • Das Projekt ist inhärent interdisziplinär und verbindet:
  • Mathematik/Stochastik: Kernfachgebiet des Kurses, Expertise in stochastischen Prozessen und Modellierung mittels komplexen Netzwerken, ungeordneten Systemen, interagierenden Teilchensystemen (PD Dr. habil. Klymovskiy).
  • Wahrscheinlichkeitstheorie & Interagierende Teilchensysteme: Fachliche Expertise und internationale Perspektive durch die Kooperation mit Prof. Dr. Stein Andreas Bethuelsen (University of Bergen).
  • Informatik/Künstliche Intelligenz: Entwicklung und Anwendung von Large Language Models, RAG-Systemen und Machine Learning-Techniken (PD Dr. habil. Klymovskiy).
  • Hochschuldidaktik/Fachdidaktik Mathematik: Konzeption von Lernpfaden, Interaktionsdesign des Tutors zur Förderung kritischen Denkens und effektiven Lernens.
    Das Projekt fördert somit den Austausch und die Synergie zwischen diesen Bereichen (Prof. Dr. Stein Andreas Bethuelsen, PD Dr. habil. Klymovskiy).

  • Der Kurs wird als Blended-Learning-Format mit hohem Digitalisierungsgrad konzipiert. Kerntechnologien umfassen:
  • Entwicklungsumgebung: Python-basiert.
  • Large Language Models: Einsatz von Open-Source/Weight LLMs, optimiert durch Techniken wie Quantisierung für ressourcenschonende Ausführung.
  • RAG-Architektur: Retrieval-Augmented Generation zur Anreicherung der LLM-Antworten mit validierten Kursinhalten.
  • Datenverarbeitung: Aufbereitung von Kursmaterialien (LaTeX, Markdown, PDF), Simulationen (R, Python). Analyse der Lernpfade.
  • HPC-Ressourcen: Nutzung des HPC-Clusters Julia 2 der Universität Würzburg für rechenintensive Aufgaben (Training/Fine-Tuning von Modellen, Anreicherung der Datensätze).
  • Nutzeroberfläche: Entwicklung einer webbasierten Tutor-Applikation