Die US-amerikanische Mathematikerin und ehemalige Investmentbankerin Cathy O’Neil sieht in diesen Algorithmen eine große Gefahr für die Gesellschaft – und sie nutzt die Kraft ihres Verstands und ihre Erfahrung auf diesem Gebiet zu einem öffentlichen Weckruf. Sie plaudert aus dem Nähkästchen ihrer Branche, analysiert klug und schonungslos die mathematischen Modelle aus der Gesundheits-, Bildungs- und Wirtschaftswelt und nennt die undurchschaubaren digitalen Abläufe treffsicher eine “mathematische Massenvernichtungswaffe”.
Ob bei einem Online-Einkauf, einer Internet-Bewerbung, einer Kreditvergabe oder – zumindest in den USA – bereits vor Gericht: An vielen Beispielen legt O’Neil dar, wie schicksalhaft Programmstrukturen, die von einigen wenigen erdacht und oft als Betriebsgeheimnis gehütet werden, auf das Leben einzelner Menschen oder ganzer Gruppen einwirken. Am Beispiel eines Algorithmus zur Einschätzung der Rückfallquote bei Verbrechern, der ganze Stadtteile umkrempelt, wird erschreckend nachvollziehbar, wie mathematische Modelle eben jenes Umfeld erst erschaffen, das die Programmierer als Annahme ihrem Modell theoretisch zugrunde gelegt haben.
O’Neils These ist so naheliegend wie beängstigend: Die unsichtbaren Algorithmen errichten Verhaltensnormen, die auf uns fast mit der Macht von Gesetzen einwirken – ohne jemals ein demokratisches Korrektiv durchlaufen zu haben. Das Buch der “Big-Data-Aktivistin”, wie sie sich selbst nennt, stimmt nachdenklich, ist an vielen Stellen verstörend – und zugleich ein dringender Appell an Mathematiker, sich nicht als Erfüllungsgehilfen zu verstehen, sondern selbst aktiv zu werden. Ob ihre Lösungsvorschläge – ethische Regeln für Algorithmen, ein Zwang zur Transparenz oder eine Art hippokratischer Eid für Programmierer – die richtigen Wege sind, muss gesellschaftlich breit diskutiert werden. Das Buch verschafft dieser Diskussion eine gute Grundlage.
Cathy O’Neil
Angriff der Algorithmen
Hanser, München 2017, 352 S., € 24,–
ISBN 978–3–446–25668–2
E-Book für € 17,99
ISBN 978–3–446–25778–8