Entwicklung und Implementierung von Strategien zum automatisierten Feedback und Bepunktung von Programmcode in einer algebraischen Modellierungssprache

In den drei Bachelorveranstaltungen „Quantitative Methoden“ (jeweils für BWL, Wi-Ing, Mathe/Informatik) werden zur Einführung in Modelle und Methoden des Operations Research Grundkenntnisse im Umgang mit dem Solver „Gurobi“ vermittelt (bis SS15 mit der algebraischen Modellierungssprache GAMS). Die Vorlesungen sind insb. für Studierende der BWL und des Wirtschafts.-Ingeneurwesens Pflicht, im SS14 waren insgesamt fast 1400 Studierende in den drei Lernräumen angemeldet, darunter 900 Wi-Ings. Für viele Studierende ist dies der erste Kontakt mit Modellierung, Algorithmen und Programmiersprachen-ähnlichen Konzepten. Eine stärkere Unterstützung dieses „Einstiegs“ wurde von Studierendenseite häufig gewünscht.

Die Bearbeitung von regelmäßigen Modellierungsaufgaben erfolgt in Gruppen zu je drei Studierenden, die ihre Lösungen in Form von python-Dateien bis zu einer Abgabefrist auf einen Server hochladen. Die Bewertung dieser Programmcodes erfolgt nach dem Prinzip „all-or-nothing“: Entweder der Code liefert genau das richtige Ergebnis und wird mit voller Punktzahl belohnt oder es werden keine Punkte vergeben. Dieses Auswertungsprinzip hilft den Studierenden im Fehlerfall fast gar nicht weiter, weil sie nicht wissen, welche Modellierungsfehler sie gemacht haben. Ziel dieses Projekts ist es ein differenzierteres Auswertungsprinzip zu entwickeln und zu implementieren, das Punkte entsprechend des Lernerfolgs vergibt, und dabei ggf. die „Art des Fehlers“ angibt, um so Rückschluss auf nachzuarbeitende Inhalte zuzulassen.

Oktober-Dezember 2014: Entwicklung von Auswertungsstrategien Januar - April 2015: Implementierung eines Prototypen Mai 2015: Ende des beantragten Förderzeitraums Mai - Juli 2015: Test des Prototypen in der Lehrveranstaltung 15ss-06922 August 2015 - März 2016: Erweiterung des Prototypen um weitere Bepunktungsoptionen, Vergrößerung des Aufgabenpools April 2016 - heute: Testintegration des erweiterten Prototypen in die Übungsbetriebe der Lehrveranstaltungen 16ss-06922, 16ss-03669, 16ss-06010 und 16ss-49595

Es ist ein Tool entstanden, das in den Übungsbetrieb der Lehrveranstaltungen 16ss-06922, 16ss-03669, 16ss-06010 und 16ss-49595 integriert wurde. Die von den Studierenden auf einem vom Lehrstuhl betriebenen Server hochgeladenen Programmcodedateien in python werden nach Ablauf der Abgabefrist rechnergestützt automatisiert ausgewertet, d.h. bepunktet und Fehler mit Hinweisen auf ggf nachzubearbeitendes Material kommentiert. Eine dauerhafte Nutzung im Anschluss, sowie der Ausbau einer unmittelbaren Feedbackfunktion wird geprüft.

Verantwortlich für die Inhalte dieser Seite

Studium der Germanistik und der Geschichte an der RWTH Aachen. Seit 2009 Wissenschaftlicher Mitarbeiter zunächst am Center for Innovative Learning Technologies (CiL) der RWTH Aachen, seit 2019 Leitung der Nachfolgeeinrichtung des CiL, der Abteilung Lernplattform-Management
(LPM) des Center für Lehr- und Lernservices (CLS). Tätigkeitsbereiche: - Koordination der Weiterentwicklung der zentralen, hochschulweiten Lehr- und Lernplattform RWTHmoodle - Leitung RWTHmoodle-Support (fachliche Anwendungsbetreuung im 2nd Level, individuelle Fallberatung) - Entwicklung und Durchführung von Qualifizierungsmaßnahmen zu RWTHmoodle und E-Learning-Themen - E-Learning-Beratung