Archiv der Kategorie: Offene Wissenschaft

In „Offene Wissenschaft“ veröffentliche ich meine Gedanken zu Forschung und Lehre

Mein Abschlussprojekt zum Maschinenlernen … Los geht’s!

Nachdem ich Ende letzten Jahres zwei Wochen Urlaub dafür genutzt hatte, um Zeit für die „Machine Learning Engineer“-Fortbildung bei Udacity zu investieren, ging es danach deutlich langsamer voran. Es war schwieriger als gedacht, ein Thema für mein Abschlussprojekt zu finden. Ich hatte ja auch hier etwas dazu geschrieben. Datensätze gibt es im Netz genug, aber ich wollte an etwas arbeiten, was auch jemand gebrauchen könnte.

Tatsächlich hätte ich für OpenSNP an einem Modell arbeiten können, um anhand von Genomdaten die Herkunft einer Person zu bestimmen, aber dafür kenne ich mich dann mit Biologie doch zu wenig aus. Danach hatte ich Kontakt zu jemandem, der die Problemlösungskompetenz von Studierenden untersucht und auch zahlreiche Daten dazu gesammelt hatte. Seinen Artikel habe ich dank Sci-Hub … per Zufall gefunden. Die Daten lagen allerdings unter Verschluss. Closed Science. Ich sollte erst einmal meinen Lebenslauf schicken, vermutlich um zu prüfen, ob da ein böser Konkurrenzforscher seine Arbeit „stehlen“ wolle. Habe ich verschickt, aber danach nie wieder etwas gehört und auch nicht nachgebohrt. So ein Umfeld meide ich doch lieber … Was soll’s.

Analysesoftware auf einem Laptop

Da der Gebührenzähler unerbittlich tickt, habe ich mich dazu entschlossen, doch einfach ein Wald-und-Wiesen-Thema zu nehmen. Ich habe ein paar Datensätze zu Videospielen gefunden und werde versuchen, damit etwas auf die Beine zu stellen. Vielleicht ist es möglich, darauf aufbauend ein Model zu erstellen, mit dem man anhand von Kritiker- und Kundenbewertungen und ein paar anderen Daten die Verkaufszahlen vorhersagen kann. Der von mir eingereichte Vorschlag ist jedenfalls gerade angenommen worden, und ich kann nun loslegen.

Als Nebenprodukt ist außerdem noch eine weitere Projektidee für H5P (und darüber hinaus) entstanden, die allerdings den Rahmen eines Abschlussprojektes sprengen würde. Werde ich im Nachgang angehen. Offen. Mehr dazu gibt es in Kürze.

Offenheit in Lehre und Forschung – Königsweg oder Sackgasse?

Speicherstadt Hamburg

Speicherstadt Hamburg

Eine Antwort gibt es von mit auf die Frage nicht. Ich bin vorbelastet. Und ich finde diese Entweder-Oder-Fragen sowieso mager. Nichtsdestotrotz habe ich den Titel für diesen Beitrag gewählt. Weshalb? Weil das diesjährige „Junge Forum für Medien und Hochschulentwicklung“ unter dieser Flagge segelt. Es findet am 15. und 16. Juni im schönen Hamburg statt und freut sich über eure Einreichungen zur Titelfrage. Wer sich davon aus theoretischer Perspektive oder aus Praxissicht angesprochen fühlt – und sich dazu ein Poster, einen Vortrag, eine Diskussion oder einen Workshop  vorstellen kann – sollte sich den Aufruf zu Beiträgen ansehen. Zeit für Vorschläge ist noch bis zum 1. März.

Evaluationen selbst auf dem Prüfstand

Am Ende jedes Hochschulsemesters wiederholt sich ein Ritual: Es wird evaluiert, was das Zeug hält. Studierende sollen Lehrveranstaltungen nach verschiedenen Gesichtspunkten bewerten. Das können beispielsweise sein:

  • Wirkte die/der Lehrende fachlich kompetent?
  • Beantwortete die/der Lehrende Zwischenfragen in befriedigender Form?
  • Wie beurteilen Sie Ihren persönlichen Wissensgewinn und Lernerfolg in diesem Fach?

Evaluiert wird häufig jede einzelne Veranstaltung; oft auf Papier direkt im Hörsaal, weil dann die Rücklaufquoten höher sind. Die Bögen werden dann eingescannt und die Inhalte ausgewertet. Begründet wird dieses ressourcenverschlingende Prozedere damit, dass damit die Lehre verbessert werden könne. Diverse Gründe dafür, warum ich das für Nonsens halte, habe ich vor beinahe drei Jahren schon einmal angeführt. Der gesamte Apparat beschäftigt und beruhigt aber die Hochschulverwaltung, Sie hat damit wenigstens irgendetwas getan hat. Für Rückmeldungen an Lehrende, die ja tatsächlich sinnvoll sein können, ist dieser gesamte Apparat ungeeignet. Da gibt es bessere Ansätze.

Was sagen solche Ergebnisse aus?

Was sagen solche Ergebnisse aus?

Mehr Erkenntnisse zu dem Thema verspricht eine aktuelle Studie von PsychologInnen (Uttl, White & Gonzalez, 2016). Sie haben sich auf verschiedene Art und Weise zahlreiche andere Studien aus über 30 Jahren angesehen, zusammengeführt und diverse Schwächen ausgemacht. Ein zentrales Ergebnis ihrer Meta-Analyse lautet, dass man in einer von Studierenden gut bewerteten Veranstaltung nicht mehr lerne als in einer schlecht bewerteten. Wenn sich dieser Gedanke hinter „Verbesserung der Lehre“ verbirgt: Zonk!

Die Studie kommt jedoch noch zu einem weiteren Schluss. Die Resultate von studentischen Evaluationen seien ein Ausdruck von Zufriedenheit mit dem Angebot. Die würde ich nicht außer acht lassen wollen! Dumm ist nur, dass der Zusammenhang zwischen Lernen und Zufriedenheit ganz schon kompliziert ist. Ich traue mir da wirklich keine klare Aussage zu. Allenfalls: „Nicht alles, was zu mehr Zufriedenheit führt, muss schlecht für das Lernen sein. Kann es aber. Und irgendwie muss man sich für ’sein‘ Gleichgewicht entscheiden.“ Von Hochschulen halte ich es jedenfalls für ganz schön gewagt, wenn sie einzig Evaluationen als Messinstrument einsetzen und daran eine Verbesserung oder Verschlechterung der Lehre festmachen wollen. Was denkt ihr dazu?

Literatur

  • Uttl, B., White, C. A. & Gonzalez, D. W. (2016). Meta-analysis of faculty’s teaching effectiveness: Student evaluation of teaching ratings and student learning are not related. Studies in Educational Evaluationhttp://dx.doi.org/10.1016/j.stueduc.2016.08.007.