socialnet - Das Netz für die Sozialwirtschaft
Gesicht und Binärcode - © geralt Pixabay

Gefährliche Algorithmen?

23.06.2018    Christian Koch

Inhalt
  1. Rezepte
  2. Filterblase
  3. Diskriminierung
  4. Offenlegung
  5. Freispruch

Rezepte

Ein Algorithmus ist nichts anderes als eine festgelegte Abfolge von Arbeitsschritten. Ein anschauliches Beispiel ist ein Kochrezept: "Man nehme drei Eier, 250g Butter, 250g Zucker, 500g Mehl und gehe wie folgt vor …"

Oder die Anleitung eines schwedischen Möbelhauses für das Zusammensetzen von Regalen: "Vollziehe die Handlungen auf Bild 1 nach, vollziehe die Handlungen auf Bild 2 nach, …"

Der Sinn eines Algorithmus ist es, dass die Arbeitsschritte immer in der gleichen Art ausgeführt werden und zuverlässig zum gleichen Ergebnis führen, hier z.B. Kuchen oder Regal.

Ein weiteres Beispiel ist – daran haben Sie vermutlich eben gedacht – ein Computerprogramm. Zu den beiden ersten Beispielen gibt es einige Unterschiede:

  • Programme manipulieren unmittelbar "nur" Daten, die sich jedoch in der Regel mittelbar auf das Handeln von Menschen und unmittelbar auf die Arbeit von Maschinen auswirken.
  • Programme können beliebig vervielfältigt und sehr oft, sehr schnell sowie auf nahezu beliebig große Datenmengen angewendet werden.
  • Die Vorgänge sind für die Anwender der Programme nicht direkt nachvollziehbar. Bei zunehmend komplexeren Programmen gilt dies immer häufiger auch für die Programmierer.

Trotzdem handelt es sich auch bei Programmen nur um festgelegte Rechenvorschriften. Es besteht daher kein Grund, Programme zu vermenschlichen ("Das Programm will mich wieder ärgern.")

Auf der netzpolitischen Konferenz re:publica letzen Monat in Berlin war von Risiken des Einsatzes von Algorithmen die Rede. Zwei Aspekte sollen im Folgenden aufgegriffen werden.

Filterblase

Soziale Netzwerke, Suchmaschinen, Shops, Musikdienste und weitere Onlineangebote versuchen, die NutzerInnen immer besser "kennenzulernen", um passende inhaltliche Angebote, vor allem aber individualisierte Werbung und Produkte anzeigen zu können. Diese Entwicklung ist nicht nur bedenklich, weil einige wenige große Konzerne immer detailliertere Profile über viele Millionen NutzerInnen erlangen, sondern weil wir immer mehr von der Heterogenität der Welt abgeschirmt werden und in unserer eigenen Welt leben.

Unsere Vorlieben und Vorurteile werden durch entsprechende Algorithmen immer wieder bestätigt und verstärkt, Irritationen automatisch ausgeblendet. Hat die Software erst einmal gelernt, dass wir wörtlich an die Schöpfung des Menschen durch Gott glauben, dann werden wir bei Suchergebnissen und im Buchshop nicht mehr auf Darwin treffen. Schon jetzt gibt es Untersuchungen, dass Fake News eine höhere Aufmerksamkeit erzielen als seriös recherchierte Nachrichten – vermutlich weil sie besser in die Welt der jeweiligen EmpfängerInnen passen.

Nun kann man zu Recht anführen, dass wir Menschen schon immer in "unserer" Welt gelebt haben, indem wir uns für einen bestimmten Wohnort bzw. Nachbarschaft entscheiden, einen Bekanntenkreis aufbauen, Zeitschriften abonnieren oder Hobbies auswählen. Dabei hatten wir jedoch noch die Chance, auf konträre Positionen zu stoßen, andere Geschmäcker kennen zu lernen und beim Blättern im Kochbuch ganz neue Rezepte zu entdecken.

Die individualisierten Onlinewelten funktionieren grundsätzlich nicht anders, sondern filtern nur umfassender und detaillierter weniger "relevante" Informationen aus. Dadurch besteht die Gefahr, dass meine Weltsicht noch eingeengter wird, als sie ohnehin schon ist. Diese Gefahr nimmt zu, je stärker die Angebote monopolisiert werden oder sich in der Funktionsweise angleichen. Wenn online recherchieren mit googlen gleichgesetzt wird (es gibt weltweit noch zwei bis drei weitere relevante Suchmaschinen) und Google entscheidet, welche Treffer für mich relevant sind, dann kann selbst eine aktive Suche nach neuen Perspektiven ins Leere laufen.

Diskriminierung

In immer mehr Bereichen werden Algorithmen eingesetzt, denen – in vermenschlichender Weise – "künstliche Intelligenz" zugewiesen wird. Eine wichtige Gattung sind neuronale Netze, die gut für die Erkennung von "Mustern" in Daten geeignet sind. Dazu werden sie "angelernt", indem man ihnen Muster zu lesen gibt und die "Musterlösung" mitteilt.

Z.B. könnte ein solches Programm eine Million Röntgenaufnahmen von Menschen lesen, bei denen sich die Diagnose Lungenkrebs bestätigt hat, sowie von einer entsprechenden Zahl von Menschen ohne Lungenkrebs. Anschließend kann das Programm bei neuen Röntgenaufnahmen angeben, ob diese Aufnahmen ein ähnliches Muster wie bei an Lungenkrebs Erkrankten oder eher wie bei Gesunden aufweisen. Auch wenn der Algorithmus nicht wirklich versteht, was Lungenkrebs ist und welche Bedeutung eine Röntgenaufnahme hat, könnte er in der Praxis hilfreiche Hinweise geben.

Aktuell werden Einsatzbereiche im Personalwesen entwickelt und auf den Markt gebracht. So könnte z.B. an Hand von Daten aus dem Personalwesen, wie z.B. Überstunden, Krankheit, Alter, Geschlecht etc., eine Vorhersage abgeleitet werden, wie wahrscheinlich es ist, dass eine MitarbeiterIn das Unternehmen verlässt und wie viel z.B. das Gehalt erhöht werden müsste, damit er oder sie bleibt.

Die Vorschläge eines neuronalen Netzes beruhen immer auf den historischen Trainingsdaten. Wenn diese Daten widerspiegeln, dass in dem Unternehmen Frauen für die gleiche Arbeit weniger Geld bekommen und ihre Motivation zu bleiben sich nicht durch deutliche Gehaltsanhebungen steigern lässt, wird die Software für Männer künftig höhere Gehälter bzw. Gehaltsanhebungen vorschlagen. Wenn also Trainingsdaten bereits unter Diskriminierung zu Stande gekommen sind, wird die Software die Diskriminierung fortschreiben.

Auch verkürzt die Festlegung auf bestimmte Merkmale die Aussagefähigkeit des neuronalen Netzes. In diesem Beispiel fehlen z.B. das Angebot von Home Office und Teilzeit oder die Veränderung des Führungsklimas als Mittel zur MitarbeiterInnenbindung.

Der altbekannte Satz "Traue keiner Statistik, die du nicht selbst gefälscht hast" gilt sinngemäß auch für neuronale Netze.

Besonders kritisch wird der Einsatz beim Scoring von Kreditkunden oder Predictive Policing (Vorhersagen von Straftaten). In den USA ist schon Software im Einsatz, die die Wahrscheinlichkeit einer erneuten Strafffälligkeit eines Angeklagten vorhersagen soll, damit sich die Höhe des Strafmaßes nach dieser Wahrscheinlichkeit richtet. Wenn – was anzunehmen ist – die Trainingsdaten durch die Diskriminierung von Schwarzen geprägt sind, werden auch die Vorhersagen für Schwarze negativer ausfallen und damit die Diskriminierung fortgeschrieben werden, nunmehr mit der Legitimation einer "modernen Software mit künstlicher Intelligenz und basierend auf zehntausenden von Fällen".

Offenlegung

Dies sind nur zwei Beispiele für mögliche Fehlentwicklungen beim Einsatz von Algorithmen. Der grundsätzlich sinnvolle Einsatz von neuronalen Netzen und anderen komplexen Algorithmen kann zu gesellschaftlich problematischen Entwicklungen führen. Ursächlich dafür sind insbesondere

  • methodische Fehler, wie z.B. die Fortschreibung von Diskriminierungen durch entsprechende Trainingsdaten
  • verdeckte Optimierungsziele, die die NutzerInnen nicht kennen, z.B. zur Absatzförderung oder politischen Beeinflussung (Nudging)
  • opportunistische Anpassung an das Nutzungsverhalten, so dass Vielfalt und Widersprüche ausgeblendet werden.

Daher lautet eine zentrale netzpolitische Forderung, dass entsprechende Algorithmen offengelegt werden müssen, egal ob es um Kreditscoring, Suchergebnisse oder Einblendungen von News geht. Siehe dazu z.B. ein Manifest der Organisation AlgorithmWatch oder ein Beitrag bei netzpolitik.org.

Freispruch

Sind Algorithmen also gefährlich? Grundsätzlich sind sie nicht per se gefährlich, sondern nur mächtige Werkzeuge, die erheblichen Nutzen stiften, aber bei unsachgemäßem Einsatz eben auch Schaden verursachen können.

Gefährlich sind nur die Menschen,

  • die aus Bequemlichkeit ihr Privatleben und weitgehend ihre gesamte Weltsicht wenigen Unternehmen und deren Algorithmen anvertrauen
  • die aus Dummheit die teilweise diskriminierenden Effekte und Verzerrungen von Algorithmen übersehen
  • die aus Gier raffinierte Algorithmen zur Manipulation anderer Menschen einsetzen.

Dagegen hilft

  • Neugier, sich mit den aktuellen Entwicklungen auseinander zu setzen,
  • die Bereitschaft, sich immer wieder neuen Erfahrungen und Begegnungen auszusetzen,
  • politisches Engagement, um Transparenz über den Einsatz von Algorithmen herzustellen und Monopole zu verhindern oder wenigstens in ihrer Macht zu beschränken.

Wenn Ihr Rezeptportal Ihnen schon wieder einen Rührkuchen vorschlägt, dann suchen Sie vielleicht das nächste Mal weiter und backen einen ganz anderen Kuchen – es gibt ja so viele Rezepte!

Newsletter

Schon 13.000 Fach- und Führungskräfte informieren sich monatlich mit unserem kostenlosen Newsletter über Entwicklungen in der Sozialwirtschaft

Gehören Sie auch schon dazu?

Ansonsten jetzt für den Newsletter anmelden!

socialnet optimal nutzen!

Recherchieren

  • Rezensionen liefern den Überblick über die aktuelle fachliche Entwicklung
  • Materialien bieten kostenlosen Zugang zu aktuellen Fachpublikationen
  • Lexikon für die schnelle Orientierung und als Start für eine vertiefende Recherche
  • Sozial.de für tagesaktuelle Meldungen

Publizieren

  • wissenschaftliche Arbeiten
  • Studien
  • Fachaufsätze

erreichen als socialnet Materialien schnell und kostengünstig ihr Publikum

Stellen besetzen
durch Anzeigen im socialnet Stellenmarkt

  • der Branchenstellenmarkt für das Sozial- und Gesundheitswesen
  • präsent auf führenden Fachportalen
  • schnelle und preiswerte Schaltung
  • redaktionelle Betreuung