Harald Ille
am
10. April 2020

Wie funktionieren Algorithmen?

Algorithmen sind überall und sie sind in vielen Fällen das bestgehütetste Geschäftsgeheimnis überhaupt. Wie bspw. der Google-Algorithmus seine Ergebnisse findet und sortiert, wie in welcher Reihenfolge Facebook und Instagram Eure Postings anzeigen oder welche Videos Euch YouTube vorschlägt: Streng geheim, aber nicht völlig undurchschaubar.

Algorithmen sind überall und sie sind in vielen Fällen das bestgehütete Geschäftsgeheimnis überhaupt. Wie bspw. der Google-Algorithmus seine Ergebnisse findet und sortiert, wie in welcher Reihenfolge Facebook und Instagram Eure Postings anzeigen oder welche Videos Euch YouTube vorschlägt: Streng geheim, aber nicht völlig undurchschaubar.

Über Reverse Engineering können die Algorithmen teilweise nachgebaut werden, wir verstehen ihre Funktionsweise dann im Detail besser und können versuchen, sie auszureizen.

Algorithmen in 3 Minuten erklärt.

“Schütte 80 Gramm Weizenmehl in eine Rührschüssel. Schlage ein Hühnerei auf und gib es zusammen mit 120 Milliliter Milch und einer Prise Salz dazu. Jetzt alles miteinander verrühren und eine Stunde stehen lassen.”

Dieses schnelle Pfannkuchen-Rezept ist eine Koch-Anleitung, ein Schritt-für-Schritt-Guide für eine spezielle Aufgabe in der Küche. Es ist ein Algorithmus.

Die Grundlage der Digitalisierung

Algorithmen können einfach sein wie unser Pfannkuchen-Rezept oder sehr, sehr, sehr komplex und kompliziert. Wichtig ist: Sie sind die Grundlage der Digitalisierung. Ohne Algorithmen keine GPS-Navigation, kein Online-Banking, keine Google-Suche und kein Instagram-Feed. Ohne Algorithmen kein Internet, keine elektronische Steuerung – ja, nicht mal ein Mittagessen. 😉

Erstaunlich und erschreckend zugleich, was Facebook über uns weiß. Aus allen Daten, die wir Facebook freiwillig geben, kann der Algorithmus Zusammenhänge berechnen und so Vorhersagen machen. Im Detail höchste Mathematik und nur mit immenser Rechenpower zu bewerkstelligen – aber im Grundsatz eine relativ einfache Sache.

Quarks – Warum Facebook weiß, dass du schwanger bist. (2018)

Wenn ich Fan von drei Heavy Metal-Bands bin, könnte mir die neue Veröffentlichung einer mir noch unbekannten neuen Heavy-Band aber trotzdem gefallen. Also schlägt sie mir der Algorithmus vor. Wenn ich mich plötzlich – wie im Quarks-Beitrag gezeigt – für Babyfotos interessiere und meine Ernährung umstelle, könnte ich eventuell schwanger sein. Facebook zählt einfach 1 und 1 zusammen und errechnet ein Ergebnis, das mit einer gewissen Wahrscheinlichkeit tatsächlich zutrifft.

Algorithmus-Alphabetisierung wird für unsere Gesellschaft immer wichtiger. Wenn wir sehen, wie wichtige Entscheidungen von Politik und Unternehmen durch Algorithmen bestimmt werden, müssen wir verstehen lernen, wo diese Berechnungen gut sind und wo überflüssig.

Eli Pariser, Interview mit der Süddeutschen Zeitung (2012)

Ob ich tatsächlich schwanger bin, ist irrelevant. Aber bei anderen 10.000 Menschen, die sich ähnlich verhalten wie ich, könnten 8.000 tatsächlich schwanger sein. Was zählt, ist der Durchschnitt. Was zählt, ist die Wahrscheinlichkeit, die sich auf viele tausend Datenquellen stützt.

https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/#40c726096668

Algorithmen formen unser Weltbild

Diese Datensammelei hat sicherlich einige Vorteile: Facebook und alle anderen Anbieter wie Google und Apple und andere wissen durch mein Online-Verhalten, wer ich bin, was ich mag, was ich nicht mag, wo ich politisch stehe und was mir in naher Zukunft blühen könnte – ein Karrieresprung, eine Trennung, eine neue Beziehung. Also, ziemlich persönliche Dinge. Welche Freunde ich habe und welche Informationen ich gerne lese – das wissen diese Anbieter von Internet-Plattformen, weil ich es ihnen unabsichtlich mit jedem einzelnen Klick sage. Sie versuchen nun, diese Daten zu nutzen, um Vorhersagen zu machen: Wenn mich diese und jene Dinge in der Vergangenheit interessiert haben, was könnte mich künftig interessieren? Wenn ich in der Vergangenheit mit diesen oder jenen Personen in engerem Austausch stand – welche anderen Personen könnten mich so interessieren, dass ich sie abonniere oder “friende”?

Elektrischer Reporter: Filterblasen (2015)

Die Plattformbetreiber versuchen, mich bei Laune zu halten. Sie wollen, dass ich mich wohl fühle und gerne viel Zeit auf der Plattform verbringe. Das ist ein legitimes Ziel, wie ich finde. Warum soll ich mich mit einer Plattform beschäftigen, die mir schlechte Laune macht, ich mich alle zwei Sekunden über einen weltanschaulichen Unsinn empören müsste und permanent das Gefühl hätte, sie wäre mir feindlich gesinnt und würde perfiden Spaß daran haben, mich permanent provozieren zu wollen? Ich würde diese Plattform viel seltener besuchen, logisch. Warum soll ich mir von Facebook den Tag versauen lassen?

Die berechnete Filter-Bubble

Und genau das ist das Problem. In gewisser Weise reden mir die Plattformen nach dem Mund. Sie schützen mich vor Meinungen, die mich provozieren und aufregen würden. Und sie trimmen meinen Newsfeed so, dass er meiner Weltanschauung entspricht. Kontroverse Ansichten, strittige Themen, alternative Thesen hält die Plattform in der Regel von mir fern. Sie bemuttert mich, und damit schadet sie mir – weil sie mir Informationen vorenthält und eine heile Welt vorspiegelt, die es so nicht gibt und niemals geben wird. Sie entmündigt mich.

TED-Talk von Eli Pariser: What Facebook and Google are Hiding from the World. (2011)

Dass so eine Filterbubble entstehen kann, hat Internet-Aktivist Eli Pariser schon vor zehn Jahren aufgeschrieben in seinem Buch “Filter Bubble: Wir wir im Internet entmündigt werden“.

“Your filter bubble is your own personal, unique universe of information that you live in online. And what’s in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don’t decide what gets in. And more importantly, you don’t actually see what gets edited out.”

Eli Pariser, TED-Talk 2011

Welche wichtigen Informationen mir die Plattform vorenthält, weil sie nicht mit meinen Filterkriterien kompatibel sind: Das weiß ich nicht, das kann ich nicht wissen. Die Plattform zensiert also in gewisser Weise. Journalistinnen und Journalisten tun das in der Regel auch, meint Eli Pariser, und er hat natürlich Recht damit.

Journalistinnen und Journalisten waren und sind die Türsteher vor dem Info-Club – sie lassen nur durch, was ihnen aufgrund akzeptierter journalistischer Kriterien relevant erscheint. Natürlich wenden sie sich ebenfalls an ein weltanschaulich einigermaßen homogenes Publikum: Die durchschnittlichen Leserinnen und Leser von FAZ, Welt und Cicero unterscheiden sich eben von denen der Süddeutschen, der taz und konkret. Warum sollte das auf Facebook und bei Google anders sein?

Die Aufgabe der Gatekeeper übernimmt nun eben der Algorithmus – aber, so Eli Pariser, mit einem entscheidenden Unterschied. Den Algorithmen fehlt ein ethischer Maßstab, fehlt »menschliches Augenmaß«. Sie filtern streng nach Vorschrift, Ausnahmen gibt es nicht.

Wie diskussionswürdig das in der Praxis ist, zeigt der Norweger Andreas Ekström. Denn Moral, Ethik, Weltanschauung, Kultur entstehen eben durch eine Debatte, einen Diskurs über den richtigen Weg – und das funktioniert nicht mit eingeschränkten, gefilterten Sichtweisen.

TEDx Oslo: Andreas Ekström “The moral bias behind your search results”.

https://www.google.com/intl/de/search/howsearchworks/algorithms/

Harald Ille

Als PR- und Digital Enthusiast bin ich selbstverständlich auch Mobile Enthusiast – und habe einen kleinen Workshop konzipiert, der die wichigsten Aspekte beleuchtet. Nicht ganz aktuell, da die aktuellen Ergebnisse den Studierenden vorbehalten sind – aber brauchbar.