Es ist nicht der Algorithmus: Neue Studie behauptet, soziale Netzwerke sind grundlegend fehlerhaft.
Die Forschung der Cornell University stellt fest, dass Polarisierung und Hassrede aus der grundlegenden Architektur von sozialen Medienplattformen stammen und nicht aus ihren Empfehlungsalgorithmen.
Entgegen der gängigen Meinung sind nicht unbedingt die Algorithmen für die Polarisierung und Hassrede im Internet verantwortlich.
Eine neue Studie deutet darauf hin, dass die tieferliegenden Probleme aus der grundlegenden Struktur der sozialen Medienplattformen resultieren, und nicht aus dem Code, der sie antreibt.
Die Schlussfolgerung ist, dass sinnvolle Reformen Änderungen am Kern erfordern, nicht nur kosmetische Anpassungen.
Forscher der Cornell University führten eine aktuelle Studie durch, die darauf hindeutet, dass die anhaltende Realität von Hassrede, sozialer Polarisierung und der Verbreitung von voreingenommener oder falscher Information kein Nebenprodukt komplexer Algorithmen ist, sondern ein direktes Ergebnis der grundlegenden Architektur dieser Plattformen.
Mit einer innovativen sozialen Simulation modellierten sie ein einfaches soziales Netzwerk und demonstrierten, wie bekannte Probleme spontan auftauchten, selbst ohne ausgeklügelte Empfehlungsalgorithmen.
Mit anderen Worten, strittige Diskurse und Desinformation scheinen ganz natürlich zu entstehen, unabhängig davon, wer die Plattform betreibt oder wie sie funktioniert.
Die Studie identifizierte drei wesentliche Versäumnisse in einer virtuellen Umgebung, in der Agenten basierend auf großen Sprachmodellen interagierten.
Erstens, Echokammern: Virtuelle Benutzer neigten dazu, sich in homogene ideologische Gruppen zu sammeln - Konservative mit Konservativen, Liberale mit Liberalen, Rassisten mit Rassisten - was menschliches Verhalten widerspiegelt.
Zweitens entstand eine extreme Konzentration von Einfluss, bei der eine kleine Anzahl von Benutzern die meiste Aufmerksamkeit auf sich zog und Diskussionen prägte, ähnlich einem „Gewinner-nimmt-alles“-Modell.
Schließlich gewannen extreme und polarisierende Stimmen eine verstärkte Resonanz, was den Gesamtdiskurs verzerrte.
Diese Ergebnisse stimmen mit aktuellen Daten überein, die eine steigende Polarisierung auf Plattformen wie X (ehemals Twitter) und Facebook zeigen, wie von Forschungsinstitutionen in den Vereinigten Staaten und Europa berichtet.
Studien in der Europäischen Union haben ebenfalls eine zunehmende Verbreitung extremistischer Inhalte und Echokammer-Effekte dokumentiert und zeigen, dass das Problem nicht an eine einzelne Kultur oder Plattform gebunden ist.
Der besorgniserregendste Aspekt der Forschung ist das Versagen der meisten getesteten externen Interventionen, die Bedingungen zu verbessern.
Sechs absichtlich extreme Maßnahmen wurden bewertet, um ihren Einfluss auf die Plattformdiskurse zu beurteilen.
Ein Ansatz - die Entfernung von Algorithmen und die Anzeige von Beiträgen in chronologischer Reihenfolge - reduzierte Ungleichgewichte in der Aufmerksamkeit, stärkte jedoch gleichzeitig die Verbindung zwischen politischem Extremismus und Einfluss, wodurch extreme Inhalte selbst in einem neutralen Umfeld hervorstachen.
Eine andere getestete Methode bestand darin, die Sichtbarkeit dominanter Stimmen zu reduzieren.
Dies führte zu leichten Verbesserungen, hatte jedoch keinen Einfluss auf Polarisierung oder Echokammern.
Bemerkenswerterweise hatte das Verbergen von Metriken wie Likes oder Followerzahlen fast keinen Einfluss auf die Bots, die weiterhin Verbindungen zu gleichgesinnten Gegenstücken aufbauten.
Während sich die Forschung auf soziale Netzwerke konzentrierte, die in westlichen Kontexten operieren, wurden die Ergebnisse mit den Bedingungen in China verglichen.
Plattformen wie Weibo, das chinesische Pendant zu X, operieren unter strenger staatlicher Aufsicht, die sich nicht nur auf die Inhaltsmoderation, sondern auch auf die Architektur der Plattformen selbst erstreckt.
Diese Aufsicht fördert einen „harmonischeren“ Diskurs, indem absichtlich Rand- und Extremstimmen zensiert und eingeschränkt werden, was die Polarisierung verringert, aber die Meinungsfreiheit einschränkt - eine Dynamik, die weniger auf demokratische Gesellschaften zutrifft.
Die Studie verstärkt die Forderungen von Regulierungsbehörden und Experten weltweit nach Lösungen, die die grundlegenden strukturellen Probleme sozialer Netzwerke ansprechen, statt nur deren Symptome, und spiegelt eine wachsende Erkenntnis wider, dass kleine Änderungen allein wahrscheinlich die Herausforderungen, vor denen diese Plattformen stehen, nicht lösen werden.
Newsletter
Related Articles