Die Nutzung von Bildungsdaten durch neue Verfahren wie «Machine Learning» oder künstliche Intelligenz wirft grundlegende Gerechtigkeitsfragen auf. Diese Fragen ergeben sich aus dem Zusammenspiel von Daten und Algorithmen: Algorithmen reproduzieren Muster in bestehenden Daten. Dies kann zu folgenreichen Verzerrungen und Ausblendungen führen (Stichwort «algorithmische Diskriminierung»). Umgekehrt kann eine umsichtig ausgestaltete digitale Nutzung von Bildungsdaten zum Abbau von Benachteiligungen beitragen, wenn Aspekte der Rechenschaft und Fairness in Design und Entwicklung durchgängig berücksichtigt werden.

Gemeinsam für eine soziale und pädagogisch nachhaltige Datennutzungspolitik

Im Kooperationsprojekt «Algorithmic Sorting in Education – Vernetzung und Implikationen» gehen Forschende der PH Zürich und die Fachagentur Educa gemeinsam der Frage nach, wie eine Datennutzungspolitik aussehen kann, die solche Fragen der sozialen Gerechtigkeit angemessen berücksichtigt. Zu denken ist dabei beispielsweise an Richtlinien für die sozial verantwortungsvolle und nachhaltige Gestaltung digitaler Bildungstechnologien. Ebenso wie die Definition von Prozessen und Formaten, die ein Monitoring der sozialen Implikationen des Zusammenspiels von Algorithmen und Daten im schulischen Alltag erlauben.

Die Kooperation zwischen der PH Zürich und Educa basiert auf einem Forschungsprojekt, das vom Schweizerischen Nationalfonds finanziert wird und von 2022 bis 2026 läuft. Dieses Projekt geht der Frage nach, wie pädagogische und technologische Logiken und Praktiken in der Entwicklung und Nutzung von neuen Bildungstechnologien zusammenspielen. Damit untersucht das Projekt das Wechselspiel von zwei Handlungsfeldern, die für die Arbeit an und mit KI in der schulischen Bildung eine Schlüsselrolle spielen, bislang aber kaum in ihren vielfältigen Wechselbezügen in den Blick genommen wurden.

«  Die vielfältigen Wechselbezüge zwischen dem technologischen und dem pädagogischen wurden bisher zu wenig ins Blickfeld genommen.  »

KI-gestützte Bildungstechnologien aus unterschiedlichen Perspektiven erforschen

Um diese Zusammenhänge zu klären, setzt das Projekt an den Erfahrungen, Erwartungen und Einschätzungen von Lehrpersonen, Entwicklerinnen und Entwicklern an. Ein Teilprojekt konzentriert sich dabei auf das pädagogische Feld, ein zweites auf das technologische.

Andrea Isabel Frei erforscht in ihrem Promotionsprojekt anhand von teilnehmenden Beobachtungen und Fallstudien aktuelle Rahmenbedingungen der Entwicklung neuer Bildungstechnologien. Im Fokus ihrer Promotion stehen EdTech-Startups und die vielfältigen «Prüfungen», die diese bestehen müssen, bevor sie ihr Produkt erfolgreich auf dem Bildungsmarkt lancieren können.

Das zweite Teilprojekt verschiebt den Fokus von der Entwicklung von Technologien auf deren Nutzung. Mario Steinberg fragt in seiner Promotion danach, wie Lehrpersonen digitale Bildungstechnologien im schulischen Alltag einsetzen, um Unterrichtssituationen zu gestalten.

Dialog als Schlüsselelement für eine faire Datennutzungspolitik

Erste Erkenntnisse aus diesen Forschungstätigkeiten werden in den kommenden Monaten im Kooperationsprojekt mit dem Programm zur Entwicklung einer Datennutzungspolitik von Educa diskutiert und aufgearbeitet. Schon aus den ersten Schritten «im Feld» ergeben sich wichtige Hinweise für das Verständnis möglicher ungewünschter Benachteiligungseffekte neuer Formen der algorithmischen Datennutzung.

So wird eindrücklich die Schwierigkeit greifbar, eine einfache Antwort auf die Frage zu geben, ob eine Technologie sozial «fair» ist oder nicht. Das liegt allein schon an der Vielzahl der involvierten Akteurinnen und Akteure sowie der Prozesse, die in der Entwicklung und Nutzung von Technologien Spuren hinterlassen. Diese Komplexität gilt es zu verstehen, um Ansatzpunkte zur Vermeidung von algorithmischen Diskriminierungen und die Realisierung von Gerechtigkeitsversprechen neuer Bildungstechnologien zu gewährleisten. Wie und an welchen Stellen im Prozess kann und soll beispielsweise eine pädagogische und «moralische» Reflexion von Algorithmen und Daten stattfinden? Wie kann eine solche organisiert werden, ohne Konflikte mit den alltäglichen Anforderungen der Startup-Szene zu verursachen?

«  Eine Vielzahl an Akteurinnen und Akteuren sowie Prozessen hinterlassen Spuren in der Entwicklung und Nutzung von Technologien. Diese Komplexität gilt es zu verstehen.  »

Rahmenbedingungen für Innovation verstehen

Mit Blick auf die Entwicklung neuer Bildungstechnologien gilt es, die herausfordernden Rahmenbedingungen zu verstehen, unter denen innovative Tools entwickelt werden. Dies wird laut Andrea Isabel Frei deutlich, wenn man sich die alltäglichen Aufgaben vergegenwärtigt, mit denen beispielsweise ein EdTech-Startup konfrontiert ist. Der Weg von der Produktidee zum einsatzbereiten und alltagstauglichen Lerntool ist von zahlreichen «Testsituationen» geprägt. Idealtypisch hierfür ist das Pitching vor Investorinnen und Investoren oder auch die Kundenakquise auf EdTech-Fairs oder vergleichbaren Anlässen. Für die Gestaltung einer Datennutzungspolitik ist hier entscheidend: Kaum eine dieser «Prüfungen» ist von sich aus pädagogisch gesättigt. Wir müssen also über Wege nachdenken, pädagogische und bildungspolitische Anliegen und Expertise zuverlässig in den Entwicklungsprozess von Technologien einzubringen, ohne Innovationsprozesse zu blockieren. Eine innovative Datennutzungspolitik kann hierfür einen wichtigen Rahmen bieten.

Pädagogisch sinnvoller Einsatz erfordert Hintergrundwissen

Deutlich wird auch in den Arbeiten von Mario Steinberg, wie sehr die tatsächlichen sozialen Folgen von Technologien für die schulische Bildung von vielen kleinen Entscheidungen abhängen, die Lehrpersonen in ihrem Berufsalltag treffen. Die sinnvolle pädagogische Nutzung einer Bildungstechnologie erfordert ein Verständnis dafür, wie diese funktioniert und welche Daten sie auf welche Art verarbeitet. An einer angemessenen Data Literacy (und auch Algorithm Literacy) mangelt es aber meist. Das kann Gefühle der De-Professionalisierung ebenso nach sich ziehen wie Dynamiken der Verantwortungsdelegation: Wenn der Algorithmus Schülerinnen und Schüler als «stark» oder «schwach» klassifiziert, wird dies kaum hinterfragt, wenn das entsprechende Hintergrundwissen fehlt.

Das Kooperationsprojekt zwischen Educa und der PH Zürich will diese meist nicht auf den ersten Blick ersichtlichen Bezüge zwischen Technologie und Pädagogik verstehen und im Dialog mit den beteiligten Akteurinnen und Akteuren dafür sensibilisieren. Mehr noch: Es will Wege aufzeigen, wie ein solcher Dialog als dauerhaftes Element einer sozial gerechten Datennutzungspolitik aussehen und funktionieren kann.

Gastbeitrag

Prof. Dr. Kenneth Horvath, Abteilungsleiter Bildungswissenschaftliche Forschung PH Zürich

ähnliche Beiträge

Um die künftige Datennutzungspolitik für den Bildungsraum Schweiz zu entwickeln, haben wir ein Programm für Datennutzungsprojekte geschaffen. Wir haben die Beteiligten gefragt, warum sie Interesse haben an unserem Programm mitzuwirken.

Unsere neue Podcast-Serie widmet sich dem Thema «Daten im digitalen Bildungsraum». Die erste Episode dieser Serie gibt Antworten auf die Fragen: Was sind Datenflüsse; wieso sind sie wichtig und was können wir aus Datenflüssen lernen?

Unsere neu kreierte Rubrik will informieren, Wissen vermitteln und zu Diskussionen anregen. Unser erstes Educa Dossier widmen wir der hochaktuellen Thematik «Blockchains in der Bildung». Auch unsere diesjährige Fachtagung Educa23 stand ganz unter diesem Thema, dazu mehr in unserem Rückblick.

Was hat der Schweizer Föderalismus mit Blockchain gemein? Beide stellen die Selbstbestimmung kleiner Einheiten ins Zentrum. An unserer Fachtagung 2023 zum Thema «Blockchains in der Bildung» widmen wir uns diesem Trend zur Selbstbestimmung und möglichen Bedeutungen für das föderalismuserprobte Bildungssystem.