Nr. 04/2020 vom 23.01.2020

Algorithmen für faire Bildungschancen

Immer mehr Entscheidungen werden von Algorithmen gefällt. Viele davon sind diskriminierend. Ein Pilotprojekt in Stadtzürcher Schulen zeigt, dass es auch anders gehen könnte.

Von Florian Wüstholz

Kaum ein Tag vergeht, an dem nicht ein Algorithmus für negative Schlagzeilen sorgt. Letztes Jahr etwa erhielten in Schweden plötzlich 70 000 Arbeitssuchende kein Arbeitslosengeld mehr. Die Ursache: ein fehlerhaft programmierter Algorithmus, der Anspruchsberechtigte fälschlicherweise von den Zahlungen ausschloss. Der Algorithmus sollte eigentlich selbstständig darüber entscheiden, wer Unterstützung erhält, und Zahlungen unkompliziert und automatisch auslösen. Stattdessen verschlimmerte der Fehler die ohnehin prekäre Situation für viele.

Auch eine neue, im Auftrag der Antidiskriminierungsstelle des Bundes verfasste Studie des Karlsruher Instituts für Technologie zeigt anhand von fast fünfzig Beispielen, wie wir auf Algorithmen vertrauen, die diskriminierend und intransparent sind. So erwies sich die Fehlerquote eines Gesichtserkennungssystems von Amazon bei People of Color als überproportional hoch. In Finnland wurde gar ein Kreditinstitut zu Strafzahlungen verurteilt, weil sein Algorithmus bei der automatisierten Onlinekreditvergabe Männer gegenüber Frauen benachteiligte. Die weitverbreitete Mär von der objektiven «künstlichen Intelligenz» entpuppt sich als Phantasma.

Ungleichheit verringern

Sollten wir deswegen nicht besser ganz auf Algorithmen verzichten? Zumindest beim Zentrum für Demokratie Aarau sieht man das nicht so. In einem Pilotprojekt mit der Stadt Zürich wurde ein Algorithmus entwickelt, der die Durchmischung in Schulen fördern und damit Ungleichheit bei Bildungschancen verringern soll. Denn in der Schweiz ist der Einfluss der Klassenzusammensetzung auf die individuellen Leistungen von SchülerInnen gemäss Pisa-Studien OECD-weit am grössten.

Was heute noch manuell gemacht wird, liesse sich mit dem entwickelten Algorithmus systematisch verbessern. Ziel dabei ist es, die Quote sozioökonomisch benachteiligter Kinder möglichst nahe ans städtische Mittel von 28 Prozent anzupassen. Das betrifft vor allem stark durchmischte Quartiere. So liesse sich beim Schulhaus Zurlinden in Wiedikon der Grad an sozioökonomischer Durchmischung von 70 auf 44 Prozent verringern, beim Schulhaus Mattenhof in Schwamendingen stiege er im Gegenzug von 6 auf 24 Prozent. In weniger durchmischten Quartieren wie Witikon hingegen wären nur kleine Veränderungen möglich.

Der Algorithmus erreicht das nicht etwa, indem einzelne SchülerInnen unter die Lupe genommen und neu zugeteilt werden. Stattdessen werden Strassenzüge zwischen den Schulkreisen abgetauscht, um eine möglichst gleichmässige Verteilung zu erreichen – ohne dass Kinder dabei einen längeren oder gefährlicheren Schulweg in Kauf nehmen müssten (die Grundlage dafür liefern unter anderem Daten aus der Volkszählung 2000, Strukturerhebungen zur Wohnbevölkerung 2010 bis 2015 und Daten der kantonalen Bildungsstatistik).

«Ein Algorithmus kann die immensen Möglichkeitsräume systematischer und schneller durchsuchen und so das Potenzial für eine stärkere Durchmischung viel besser ausschöpfen», erklärt Studienautor Oliver Dlabac von der Universität Zürich. Dabei gehe es um sehr kleinräumige Anpassungen, die heute aufgrund von Jahrgangsunterschieden ohnehin schon getätigt werden müssen – bisher einfach manuell.

Transparenz ist entscheidend

Algorithmen können also auch für gute Zwecke genutzt werden. Das sieht auch Nicolas Kayser-Bril von der deutschen Initiative «AlgorithmWatch» so: «Algorithmen können durchaus nützlich sein, um eine Gesellschaft inklusiver und lebenswerter zu machen. Zum Beispiel, wenn es darum geht, komplizierte und mühsame Aufgaben zu automatisieren.» Dabei sei es jedoch zentral, dass sich der Algorithmus testen lasse. Nur so können ForscherInnen überprüfen, dass Gruppen, die geschützt werden sollten, nicht diskriminiert werden.

Den Schulalgorithmus aus Zürich schätzt Kayser-Bril positiv ein. «Aber es ist essenziell, dass Algorithmen transparent und verständlich sind», ergänzt er. Ansonsten drohe die Gefahr, dass sich die betroffenen Eltern und SchülerInnen zu Recht ohnmächtig und ausgeliefert fühlten. «Einen Algorithmus verstehen zu können, macht es wahrscheinlicher, dass die Betroffenen dessen Resultate wertschätzen und anerkennen.» Zumindest wenn sie auch dessen Ziele teilen.

Auch für Oliver Dlabac von der Uni Zürich sind Transparenz und eine offene Kommunikation entscheidend. Es sei wichtig zu betonen, dass der Algorithmus keine menschlichen Entscheidungen ersetze. Manuelle Anpassungen sollen weiter möglich sein. Gleichzeitig sei gegenüber den Eltern zu betonen, «dass der Algorithmus eine gute Durchmischung sämtlicher Schulen anstrebt. Damit werden die Unterschiede zwischen den Schulen und somit ungleiche Lernbedingungen abgebaut.»

Bis der Algorithmus zum Einsatz kommt, dürfte es aber noch dauern. Das Zürcher Schulamt schreibt auf Anfrage, die algorithmische Unterstützung werde «mittel- bis längerfristig geprüft». Und man verweist darauf, dass ohnehin die einzelnen Kreisschulbehörden über den Einsatz entscheiden müssten. Dort sind bereits einzelne Schulkreise interessiert, den Algorithmus zu testen. Zudem wird das Pilotprojekt dieses Jahr auf Genf, Basel, Bern und Lausanne ausgeweitet.

Wenn Ihnen der unabhängige und kritische Journalismus der WOZ etwas wert ist, können Sie uns gerne spontan finanziell unterstützen:

Überweisung

PC-Konto 87-39737-0
BIC POFICHBEXXX
IBAN CH04 0900 0000 8703 9737 0
Verwendungszweck Spende woz.ch