Julius-David Friedrich

Lernen und Prüfen im digitalen Zeitalter

Julius-David FriedrichDie grundlegende Herausforderung des initialen Hochschulforums Digitalisierung lag darin, das Thema `Digitales Lehren und Lernen´ auf die hochschulpolitische Agenda und in die Wahrnehmung der Hochschulleitungen wie der Hochschullehrenden zu bringen. Das Hochschulforum hat dies im Rahmen der Arbeit vom sechs Themengruppen mit zahlreichen Studien, Veranstaltungen und einer intensiven Öffentlichkeitsarbeit getan, systematisch den Status Quo und das Potential der Digitalisierung an deutschen Hochschulen erfasst und erste Lösungsvorschläge entwickelt. Damit wurde der Grundstein für eine zukunftsgewandte Weiterentwicklung der Hochschulbildung in Deutschland gelegt.

In seinem Vortrag wird Julius-David Friedrich vom CHE Centrum für Hochschulentwicklung die letzten drei Jahre des Hochschulforums Digitalisierung aufgreifen und einerseits die Ergebnisse und Empfehlungen des Hochschulforums Digitalisierung anreißen und anderseits die Prozesse dieses besonderen bundesweiten Netzwerks beleuchten. Zudem wird er aufzeigen, was die nächsten Schritte des ab 1. Januar 2017 gestarteten neue Hochschulforum Digitalisierung (HFD 2020) sein werden, die dazu beitragen sollen Hochschulen bei der strategischen Verankerung der Digitalisierung und der Nutzung in der Lehre zu unterstützen.

Das Hochschulforum Digitalisierung wurde 2014 gegründet. Es ist eine gemeinsame Initiative des Stifterverbandes für die Deutsche Wissenschaft mit dem CHE Centrum für Hochschulentwicklung und der Hochschulrektorenkonferenz (HRK). Gefördert wird es vom Bundesministerium für Bildung und Forschung.

Weitere Informationen unter: https://hochschulforumdigitalisierung.de

Zur Person:

Julius-David Friedrich ist im CHE Centrum für Hochschulentwicklung als Projektleitung des Hochschulforums Digitalisierung 2020 tätig. Er studierte Wirtschaftswissenschaften und Management von Kultur- und Non-Profit-Organisationen an der Universität Bielefeld und der TU Kaiserlauten und baute federführend das Hochschulforum Digitalisierung (HFD) zusammen mit dem Stifterverband für die Deutsche Wissenschaft und der Hochschulrektorenkonferenz auf und geht der Frage nach, wie die digitale Zukunft der deutschen Hochschullehre gestaltet werden kann. Seine Arbeitsschwerpunkte liegen in den Themenbereichen Hochschulbildung im digitalen Zeitalter und internationale Hochschulrankings. Im HFD entwickelt Herr Friedrich Empfehlungen für den Hochschulalltag, zeigt Handlungsoptionen auf strategischer Ebene für die Hochschulen auf, schreibt wissenschaftliche Studien und leitet die Organisation von Veranstaltungen.

 

Marlit Annalena Lindner

Multiple-Choice-Prüfungen an Hochschulen: Chancen, Herausforderungen und Forschungsperspektiven

Marlit LindnerHochschulen stehen infolge der Bologna-Reform europaweit vor der großen Herausforderung, von allen Studierenden in jedem Semester je Fach Prüfungsleistungen abzunehmen. Insbesondere Multiple-Choice-Aufgaben sind hierbei auf Grund der vollständig automatisierbaren und objektiven Auswertung stark in den Fokus gerückt und finden zunehmend Eingang in den Studienalltag. Doch der Einsatz dieses Formates birgt nicht nur Chancen, sondern ist auch mit Risiken und vielen Fragen verbunden: Können Multiple-Choice-Aufgaben gegenüber Freitextaufgaben die Lern- und Verstehensleistung tatsächlich adäquat erfassen? Welchen Einfluss hat die Verwendung von Multiple-Choice-Aufgaben auf das Lernverhalten Studierender? Wie kann man dem Problem der Ratewahrscheinlichkeit begegnen? Welche Aufgabenformate eignen sich im Hochschulkontext und welche spezifischen Chancen bieten digitale Prüfungen?

Mögliche Antworten auf diese und angrenzende Fragen werden in der Keynote basierend auf dem aktuellen Stand der Forschung diskutiert, während Forschungslücken und zukünftige Forschungsfelder aufgezeigt werden. Ziel des Vortrags ist es auch, für die vielfältigen Herausforderungen bei der Konstruktion hochwertiger Multiple-Choice-Prüfungen zu sensibilisieren und zentrale Themenfelder aufzuzeigen, die für einen adäquaten Einsatz des Multiple-Choice-Formates an Hochschulen zu berücksichtigen sind.

Zur Person:

Dr. Marlit Annalena Lindner ist Diplom-Psychologin und arbeitet seit 2011 als wissenschaftliche Mitarbeiterin am Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik (IPN) in Kiel. Zudem lehrt sie als Dozentin für Pädagogische Psychologie an der Christian-Albrechts Universität Kiel. In ihrer Forschung beschäftigt sie sich mit kognitiven und motivationalen Prozessen bei der Bearbeitung von Leistungstests, Multimedia-Effekten im Testkontext sowie Prinzipien der Konstruktion von Testaufgaben für die Leistungsdiagnostik. Neben einschlägigen internationalen Publikationen in pädagogisch-psychologischen Fachjournalen hat sie mit ihren Koautoren Benjamin Strobel und Prof. Dr. Olaf Köller einen umfassenden Literaturüberblick zu Multiple-Choice-Prüfungen an Hochschulen in der Zeitschrift für Pädagogische Psychologie veröffentlicht (Lindner, Strobel & Köller, 2015). Dieser zeigt wichtigen Forschungsbedarf auf und beinhaltet unter anderem Anknüpfungspunkte für die Weiterentwicklung von E-Assessments mit Multiple-Choice-Aufgaben. Daran angelehnte Fragestellungen sind auch Bestandteil ihrer aktuellen Forschung, in der sie unter anderem experimentelle Studien unter Verwendung der Methode der Blickbewegungsmessung (Eyetracking) zur Untersuchung von Testaufgaben realisiert.

 

Ulf Kröhne & Fabian Zehner

Innovative Erhebungs- und Auswertungsmethoden in Large-Scale Assessments

Dr. Ulf Kröhne
Dr. Ulf Kröhne
Dr. Fabian Zehner
Dr. Fabian Zehner

Technologiebasiert erhobene Daten aus nationalen und internationalen Large-Scale Assessments, wie bspw. dem Nationalen Bildungspanel (NEPS), dem Programme for International Student Assessment (PISA) und dem Programme for the International Assessment of Adult Competencies (PIAAC) erreichen zunehmend mehr Forscherinnen und Forscher. Technologiebasierte Assessments bilden damit zunehmend die gängige Praxis in der empirischen Bildungsforschung. Der Nutzen innovativer Erhebungs- und Auswertungsmethoden ist aber nicht auf summative low-stake Assessments beschränkt. Illustriert mit aktuellen empirischen Beispielen werden ausgewählte Potentiale und Forschungsfragen technologiebasierter Assessments vorgestellt: Möglichkeiten simulationsbasierter Assessments zur Erfassung neuer Konstrukte; die Nutzung der durch technologiebasiertes Assessment zusätzlich erhobenen Log- und Prozessdaten, bspw. für die Identifikation von schnellem Rateverhalten, zur Ableitung von Hinweise über Testbearbeitungsstrategien und zur Modellierung von Bearbeitungszeiten von Antworten aus papier- und computerbasierter Testung; die Möglichkeiten und Grenzen der Standardisierung und Flexibilisierung von Assessments durch computerbasierte Auslieferung; sowie das Leistungsvermögen moderner Verfahren der Testzusammenstellung zur Erhöhung von Messgenauigkeit und zur Berücksichtigung von nicht-psychometrischen Kriterien bei der Zusammenstellung von Assessments.

Zu den Personen:

Dr. Ulf Kröhne und Dr. Fabian Zehner sind Habilitanden am Zentrum für technologiebasiertes Assessment des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) in Frankfurt. Das Zentrum für technologiebasiertes Assessment entwickelt innovative technologiebasierte Verfahren zur Erfassung von Lernergebnissen. Es betreibt grundlagen- und anwendungsorientierte Forschung und unterstützt Einrichtungen und Projekte der Bildungsforschung bei der Entwicklung und Implementation von technologiebasiertem Assessment. Dazu gehören auch nationale und internationale Large-Scale-Studien, z.B. PISA , PIAAC oder NEPS. Dr. Kröhne beschäftigt sich unter anderem mit der Nutzung computerbasierten Assessments zur lernbegleitenden Diagnostik mittels Rückmeldung der diagnostischen Informationen in die Unterrichtspraxis. Ein weiterer Forschungsschwerpunkt ist die Untersuchung von Antwortprozessen mittels Diffusionsmodellen und digitalen Kugelschreibern. Dr. Zehner ist Psychometriker und forscht u.a. zu automatisierter Auswertung von Kurztextantworten in empirischen Erhebungsinstrumenten, Educational Large-Scale Assessments und Kognitionsbasierte, schwierigkeitsgenerierende Regeln für Leistungstest-Items.