Algorithmen formen immer stärker unseren Alltag: Sie bestimmen, welche Inhalte wir in sozialen Netzwerken angezeigt bekommen, und prägen so unser Verständnis der Welt. „Ganz allgemein ist ein Algorithmus eine eindeutige Handlungsvorschrift zur Lösung eines Problems“, erklärt Jana Lasser, Professorin für Data Analysis an der Universität Graz. Solche Anleitungen, um Probleme zu lösen, begleiten uns stetig – selbst ein Rezept oder ein Piktogramm haben demnach Ähnlichkeiten mit einem Algorithmus. Der Begriff selbst findet vor allem in der Informatik Anwendung: „In der Informatik werden Algorithmen eingesetzt, um Probleme in einzelne Schritte zu zerlegen und so zu formulieren, sodass sie mit Computern lösbar sind.“
Algorithmen auf Social Media
Auf Social Media-Plattformen gibt es täglich hunderte Millionen von neuen Posts, ein/e durchschnittliche User*in sieht aber nur ein paar hundert davon, so Jana Lasser. Dazu müssen die besten und interessantesten Postings ermittelt werden. „Dafür werden sogenannte Empfehlungsalgorithmen eingesetzt die auswählen, welche Posts der/dem Nutzer*in welcher Reihenfolge gezeigt werden.“ Und genau hier liegt auch der Schlüssel des Problems.
Mehr Werbung
„Aktuell sind Empfehlungsalgorithmen zur Auswahl von Posts so gestaltet, dass sie Nutzer*innen wahrscheinlich mit ihnen interagieren. Das ist für die Plattformen gut, denn Nutzer*innen die aktiv sind, bleiben tendenziell länger auf der Plattform und sehen mehr Werbung und mit dem Verkauf von Werbung verdienen die Plattformen Geld.“ Leider bevorzugt dieses Vorgehen auch vermehrt Posts, die starke Gefühle in uns auslösen oder reißerisch sind – bis hin zu Fake News.
Emotionale Inhalte
Der Umstand, dass den User*innen vermehrt stark emotionalisierte bzw. aufregende Inhalte auf Social Media gezeigt werden, kann negative Folgen – für Gesellschaft und Demokratie haben. Extreme Standpunkte bekommen mehr Aufmerksamkeit, während gemäßigte Meinungen in den Hintergrund treten – das kann eine Polarisierung der Gesellschaft verstärken. „Das Vertrauen in andere Menschen und Institutionen kann untergraben werden und Menschen werden tendenziell uninformierter – insbesondere dann, wenn sie selbst nicht nach Informationen suchen.“
Konstruktive Diskussionen
Jana Lasser arbeitet daher an der Entwicklung neuer Social-Media-Algorithmen, die konstruktive Diskussionen fördern. Dazu muss erst einmal definiert werden, was ein konstruktiver Diskurs ist – was durch Austausch mit verschiedenen Stakeholdern und repräsentativen Bevölkerungsgruppen geschehen soll. Sobald Lasser und ihre Kolleg*innen wissen, welche Dimensionen einen guten Diskurs ausmachen, werden diese messbar gemacht: „Dafür werden wir wahrscheinlich Machine-Learning-Algorithmen trainieren, die etwa die Wahrscheinlichkeit messen können, dass ein Post Hassrede beinhaltet.“
Digitale Zwillinge
Für ihr Vorhaben wollen Jana Lasser und ihre Kolleg*innen digitale Zwillinge von Social Media-Plattformen bauen, die von simulierten Nutzer*innen genutzt werden, die sie sich ähnlich verhalten wie echte Nutzer*innen. „Zusammen mit großen Datensätzen von öffentlichen Posts und Reaktionen können wir die Simulationen der Nutzer*innen so gestalten, dass das simulierte Verhalten dem echten ähnelt.“ So können die Forscher*innen andere Empfehlungsalgorithmen ausprobieren und sehen, wie die Aufmerksamkeit der Nutzer*innen umverteilt wird.
Neue Regeln für Algorithmen
Wenn Jana Lassers Forschung Erfolg zeigt und neue Algorithmen konstruktive Diskurse ermöglichen und diese von den Plattformen eingesetzt werden, würden die Plattformen vorerst weniger Geld verdienen, sagt die Forscherin. „Es gibt bereits Experimente mit alternativen Algorithmen, die gezeigt haben, dass die Aktivität der Nutzer*innen tendenziell etwas zurückgeht. Es gibt aber auch Anzeichen dafür, dass Plattformen, die sich wenig um Moderation kümmern und nicht aktiv konstruktive Beiträge fördern, langfristig einen Nachteil haben könnten, da die aktiven Nutzer*innen, die qualitativ hochwertige Inhalte liefern, vertrieben werden. Das könnte einen Anreiz für die Firmen darstellen, ihre Algorithmen zu ändern.“ Zudem gibt es Gesetze (v. a. den Digital Services Act), die Social Media-Plattformen dazu verpflichten, ihre Risiken für den zivilen Diskurs und demokratische Prozesse zu minimieren – inklusive der Empfehlung, Algorithmen anzupassen.