In anderen Anwendungen werden durchaus Datenspuren dazu verwendet, Menschen zu klassifizieren. Der Physiker und Datenexperte Ciro Cattuto vom Institute for Scientific Interchange in Turin stellt etwa ein reales Beispiel zur Diskussion: „Ein Versicherungsunternehmen bietet an, eine Black-Box im Auto zu installieren, die das Fahrverhalten aufzeichnet. Dafür gibt es dann einen Preisnachlass.“ Der Haken an der Sache: Der Preisnachlass kann wieder verloren gehen, sobald die Versicherung das Fahrverhalten als zu riskant einstuft – anhand des Urteils der Black-Box.
„Die Black-Box im Auto berechnet unter anderem einen so genannten Night-Time-Driving-Score, in den eingeht, wie viel man in der Nacht fährt. Die Versicherung erlaubt zwar, dass man zwischen 23 und 6 Uhr herumfährt, aber nicht zu viel – und wie viel genau erlaubt ist, wird nicht gesagt“, erklärt Cattuto. Die Einschätzung des Fahrverhaltens beruht wohl auf historischen Daten echter Fahrer, die mit Hilfe von Maschinenlernalgorithmen mit dem aktuellen Fahrverhalten verglichen werden. „Aber die Algorithmen werden nicht offen gelegt. Damit sind die Regeln nicht klar.“ Mehr noch: Vermutlich können nicht einmal die Entwickler selbst sagen, wie die Regeln am Ende konkret aussehen, weil Datenbasis und Algorithmus viel zu komplex ineinander greifen.
Entscheidungen nach verborgenen Kriterien
Catutto wünscht sich eine breite Diskussion solcher Probleme – und mehr wissenschaftliche Forschung auf dem Gebiet. Denn es gebe noch weitere, weitaus komplexere Probleme: „In unserer Gesellschaft haben wir uns entschieden, für gewisse Entscheidungen eine Reihe von Kriterien nicht heranzuziehen, zum Beispiel das Geschlecht, sexuelle Präferenzen oder religiöse Ansichten. Diese Kriterien stecken aber manchmal verborgen in den Verhaltensdaten, und so können Maschinenlernalgorithmen sie mitunter ‚entdecken‘ und ihre Entscheidungen damit fällen. Und wir enden – womöglich sogar ungewollt – in einem Szenario von algorithmischer Diskriminierung.“ Verteufeln will er Data Mining deswegen aber überhaupt nicht: „Das rettet Leben und bringt uns viele Vorteile“, findet Catutto und setzt stattdessen auf EU-Kommission und Gesetzgebung. „In der EU haben wir eine starke Regulierungskultur, wenn Werte oder Ideen geschützt werden sollen. Das kann sich auf lange Sicht sogar als wichtiger Wettbewerbsfaktor erweisen.“
Hier geht’s weiter:
Teil 1 Die Fragezeichen hinter Big Data
Teil 2 Ordnung im Datenhaufen hilft Banken
Teil 3 Probleme in der Datenwelt
Teil 4 Was kostet Privatheit?