Die Macht der Algorithmen
Foto: Thinkstock

Die Macht der Algorithmen

von Kathi Flau

Algorithmen sind mehr als simple Mathematik. Dahinter steckt ein System von Big Data, das sich gezielt einsetzen und auswerten lässt. Heraus springen ganz schön detaillierte Bewegungs- und Aktivitätsprofile von uns. Was wir darüber wissen sollten.

Algorithmen schlagen uns Freunde vor

Ginge es nach Facebook, wären wir längst alle Freunde. Dieselbe Schule, dieselbe Firma, das genügt schon, um in der Rubrik „Personen, die du vielleicht kennst“ neue Freundschaftsvorschläge zu bekommen. Es genügt sogar schon, die Online-Einladung zu einer Veranstaltung anzunehmen. Wer das tut, so Facebooks Schlussfolgerung, der kennt zumindest hinterher die anderen Teilnehmer - und bekommt prompt deren Profile angezeigt. Das ist manchmal nett und manchmal nervt es. Richtig unheimlich aber wird es, wenn, wie kürzlich in den USA geschehen, Patienten einer Psychiaterin als Freunde vorgeschlagen werden, obwohl sie sich nie begegenet sind. Auch mit der Psychiaterin selbst hatten sie keinen Kontakt auf Facebook. Allerdings bezieht das Netzwerk auch andere Daten ein: Über die IP-Adresse des Rechners kann es dessen Standort ermitteln. Und es greift auf Handydaten zu: Wahrscheinlich hatten alle Patienten telefonisch in der Praxis Termine vereinbart.

Sie stecken überall

Die Daten, die Facebook so sammelt und auswertet, sind aber nur die halbe Miete. Das Netzwerk braucht sie, um damit Algorithmen zu füttern: Verarbeitungsvorschriften zur Lösung von Problemen, die so exakt formuliert sind, dass sie von Maschinen abgearbeitet werden können. Algorithmen sind heute Standard: Sie stecken hinter jedem Musik-Streaming, hinter jeder vorgeschalteten Werbung, hinter … - eigentlich allem, was uns im Netz angeboten wird, ohne dass wir explizit danach gefragt hätten. Im Vertrauen darauf, dass es den roten Faden hinter unseren Aktionen erkennt und darauf zu reagieren weiß, lässt man das System machen. Schließlich ist es genau auf dieses Erkennen programmiert worden.

Die Daten verfolgen uns

Im Großen und Ganzen funktioniert das. Meistens sogar besser, als uns lieb ist. Denn die Werbung für ein Produkt, nach dem wir einmal gesucht haben, kann uns tagelang durchs Netz verfolgen wie eine superaufdringliche Verkäuferin durch ihr Geschäft: „Wir hätten dieses Kleid aber auch noch in Rot da, wenn Ihnen das besser gefällt. Oder in Dunkelblau, warten Sie, ich zeige es Ihnen. Und dann wäre da noch das Modell mit 3/4-Ärmeln, sehr elegant. Und sehen Sie mal hier, wir haben natürlich auch die passenden Schuhe dazu. Kunden, die sich für dunkelblaue Kleider interessierten, kauften auch... usw. usf.“ Die meisten Menschen würden dieses Geschäft wahrscheinlich kein zweites Mal betreten. Ein analoger, personifizierter Algorithmus wäre nicht zu ertragen.

Selektiv aufdringlich

Im Netz haben wir uns längst daran gewöhnt. Dass jeder Klick mit möglichst exakt auf uns zugeschnittener Werbung verbunden ist: was solls, ist eben so. Der Witz besteht allerdings darin, dass Algorithmen nunmal keine aufdringlichen Verkäuferinnen sind, sondern Rechenverfahren. Sie „denken“ komplett anders als wir. Zu ihren wesentlichen Aufgaben gehört es, das Angebot im Netz zu verschlanken, also zu selektieren und uns eine überschaubare Schnittmenge davon anzubieten. Wir erhalten also nie ein Abbild des tatsächlichen Angebots. Das wäre ja auch unüberschaubar. Im nächsten Schritt allerdings errechnet der Algorithmus aus unserer Entscheidung, die wir innerhalb dieser Schnittmenge getroffen haben, unsere Präferenzen. Filter Bubble heißt das Prinzip. Sehr vereinfacht gesagt: Wenn sich jemand, der die Wahl zwischen einem roten und einem blauen Kleid hat, für das blaue entscheidet, speichert der Algorithmus die Information „Lieblingsfarbe Blau“. Dass man dasselbe Modell in Gelb noch viel lieber gehabt hätte, es nur leider gar nicht zur Auswahl stand - diese Möglichkeit bezieht das System nicht ein.

Das Netz weiß, wie es uns »überzeugen« kann

Allerdings bezieht es in Wirklichkeit große Datenmengen ein, die es über uns gesammelt hat. Und generiert daraus Entscheidungen, die so exakt auf uns zugeschnitten sind, als wären es unsere eigenen. Und das Paradoxe ist, dass viele Konsumenten gerade dann, wenn Algorithmen im Spiel sind, die Ergebnisse kritiklos hinnehmen. Und damit neuen Verfahren wie dem Persuasive Computing den Weg ebnen. „Mit ausgeklügelten Manipulationstechnologien“, so schrieb das Magazin Spektrum vor einem Jahr, „werden sie uns in Zukunft zu ganzen Handlungsabläufen bringen können, (...) zur kostenlosen Generierung von Inhalten von Internetplattformen, mit denen Konzerne Milliarden verdienen. Die Entwicklung verläuft also von der Programmierung von Computern zur Programmierung von Menschen.“

Je mehr wir entscheiden, desto geschärfter unser Profil

Gerade weil Algorithmen tendenziell auf die Automatisierung der Gesellschaft abzielen, also auf die Übernahme von mehr und mehr Entscheidungen, die sie für uns treffen, müssen wir die Frage nach ihrer Funktionsweise stellen: Wie ist der Algorithmus geschrieben worden? Welche Filterprinzipien, welche Annahmen und Zielen liegen ihm zugrunde? Ihm liegt eine menschliche Denkweise zugrunde, nämlich die der Programmierer, die ihre Produkte wiederum in der (bewussten oder unbewussten) Annahme entwickeln, die späteren Konsumenten hätten ähnliche Interessen wie sie selbst. Ihre - oder vielmehr unsere - Algorithmen bilden unser Denken ab, unsere Vorurteile, unser eigenes Unvermögen. Sie sind der Spiegel des soziologischen und weltpolitischen Status quo. Nicht der Algorithmus lügt, verdient Geld, diskriminiert und spioniert uns nach – das sind wir alles selber.

Bei Google zum Beispiel wurde die Suche nach Namen, die afroamerikanisch klingen, oft mit Anzeigen verknüpft, die einen Eintrag im Vorstrafenregister implizierten, so eine Studie von Harvard-Professorin Latanya Sweeney aus dem Jahr 2013. Noch drastischer wurde es bei der Bildersuche auf Google und Flickr. Der Algorithmus der Bilderkennung wurde so mit Informationen und Beispielen gefüttert, dass er alle möglichen Kategorien selbständig mit Schlagworten versehen kann. Dachte man jedenfalls. Doch nachdem Fotos von schwarzen Personen von Flickr mit dem Schlagwort Affe und von Google mit dem Schlagwort Gorilla versehen wurden, während der Algorithmus weiße Menschen nicht mit Tieren verwechselte, entfernten die Bilderdienste das Gorilla-Label komplett.

Algorithmen machen das, was wir ihnen zugeschrieben haben. Die mathematischen Grundlagen ihrer Funktionsweise sind immer dieselben, egal, wozu sie eingesetzt werden. Entscheidend sind ihre Filterprinzipien. Der Mathematiker und Journalist Christoph Drösser plädiert in seinem Buch „Total berechenbar“ dafür, Programme von Firmen und Softwareentwicklern auf diese Prinzipien zu testen. "Es gibt zunehmend Leute, die das tun. Man sollte das auch fördern, dass es solche Algorithmen-Experten gibt, die in der Lage sind, auch wenn sie den Code eines Algorithmus nicht kennen, den so auf Herz und Nieren zu testen, dass man ungefähr weiß, was der tut." Die ethische Tauglichkeit, auf die wir Algorithmen zukünftig prüfen werden müssen, ist also nichts weiter als die Frage nach unserer eigenen Ethik.

Es gibt übrigens eine Möglichkeit, die Logik der Algorithmen zu durchbrechen. Technisch zumindest. Die ersten Geräte auf dem Markt können die IP-Adresse anonymisieren und personifizierte Werbung ausblenden. eBlocker heißt ein neues Gerät und man kann tatsächlich damit verhindern, Spuren im Netz zu hinterlassen. Den eBlocker gibt es im WIE EINFACH!-Shop für 219€.

Artikel vom

von Kathi Flau

Kathi Flau, freie Journalistin und Autorin, hat in Hildesheim Literarisches Schreiben
und Kulturjournalismus studiert. Sie schreibt für Tageszeitungen, Online-Magazine,
für Bankvorstände und eine Schokoladenfabrik. Und beobachtet intensiv die Zukunft
des Schreibens und Lesens.
...

Zurück

Bestellhotline:
0800 4411800