Berlin Today

Be Informed, Be Inspired, Be Berlin
Thursday, Aug 14, 2025

Es ist nicht der Algorithmus: Neue Studie behauptet, soziale Netzwerke sind grundsätzlich kaputt.

Die Forschung der Cornell University zeigt, dass Polarisierung und Hassrede aus der grundlegenden Architektur von Social-Media-Plattformen resultieren und nicht aus ihren Empfehlungsalgorithmen.
Entgegen der weit verbreiteten Meinung sind nicht unbedingt die Algorithmen für die Polarisierung und Hassrede im Internet verantwortlich.

Eine neue Studie deutet darauf hin, dass die tieferliegenden Probleme aus der grundlegenden Struktur der sozialen Medienplattformen resultieren, und nicht aus dem Code, der sie antreibt.

Die Schlussfolgerung lautet, dass sinnvolle Reformen Änderungen am Kern erfordern würden, nicht nur kosmetische Anpassungen.

Forscher der Cornell Universität führten eine aktuelle Studie durch, die nahelegt, dass die anhaltende Realität von Hassrede, sozialer Polarisierung und der Verbreitung von voreingenommener oder falscher Information kein Nebenprodukt komplexer Algorithmen ist, sondern ein direktes Ergebnis der grundlegenden Architektur dieser Plattformen.

Mit einer innovativen sozialen Simulation modellierten sie ein einfaches soziales Netzwerk und zeigten, wie bekannte Probleme spontan auftraten, selbst ohne ausgeklügelte Empfehlungsalgorithmen.

Mit anderen Worten, umstrittene Diskurse und Desinformation scheinen natürlich aufzutreten, unabhängig davon, wer die Plattform betreibt oder wie sie funktioniert.

Die Studie identifizierte drei wesentliche Mängel in einer virtuellen Umgebung, in der Agenten basierend auf großen Sprachmodellen interagierten.

Erstens, Echokammern: virtuelle Nutzer tendierten dazu, sich in homogenen ideologischen Gruppen zu bündeln – Konservative mit Konservativen, Liberale mit Liberalen, Rassisten mit Rassisten – was menschliches Verhalten widerspiegelt.

Zweitens, eine extreme Konzentration von Einfluss trat auf, bei der eine kleine Anzahl von Nutzern die meiste Aufmerksamkeit auf sich zog und die Diskussionen prägte, ähnlich einem „Winner-takes-all“-Modell.

Schließlich erhielten extreme und polarisierende Stimmen eine verstärkte Resonanz, die den Gesamtdiskurs verzerrte.

Diese Erkenntnisse stimmen mit aktuellen Daten überein, die eine zunehmende Polarisierung auf Plattformen wie X (ehemals Twitter) und Facebook zeigen, wie von Forschungsinstitutionen in den Vereinigten Staaten und Europa berichtet.

Studien in der Europäischen Union haben ebenfalls die erhöhte Verbreitung extremistischen Inhalts und Echo-Kammer-Effekte dokumentiert, was darauf hindeutet, dass das Problem nicht an eine einzelne Kultur oder Plattform gebunden ist.

Der besorgniserregendste Aspekt der Forschung ist das Versagen der meisten getesteten externen Interventionen zur Verbesserung der Bedingungen.

Sechs absichtlich extreme Maßnahmen wurden bewertet, um ihre Auswirkungen auf den Diskurs der Plattform zu überprüfen.

Ein Ansatz – die Entfernung von Algorithmen und die Anzeige von Posts in chronologischer Reihenfolge – verringerte Ungleichgewichte in der Aufmerksamkeit, verstärkte jedoch gleichzeitig die Verbindung zwischen politischem Extremismus und Einfluss, wodurch extremer Inhalt auch in einem neutralen Umfeld herausstach.

Eine andere getestete Methode bestand darin, die Sichtbarkeit dominanter Stimmen zu verringern.

Dies führte zu leichten Verbesserungen, hatte jedoch keinen Einfluss auf Polarisierung oder Echokammern.

Bemerkenswerterweise hatte das Verbergen von Kennzahlen wie Likes oder Followerzahlen fast keinen Einfluss auf die Bots, die weiterhin Verbindungen zu gleichgesinnten Gegenstücken bildeten.

Während die Forschung sich auf soziale Netzwerke in westlichen Kontexten konzentrierte, wurden die Ergebnisse mit den Bedingungen in China verglichen.

Plattformen wie Weibo, Chinas Pendant zu X, operieren unter strenger staatlicher Aufsicht, die sich nicht nur auf die Inhaltsmoderation, sondern auch auf die Architektur der Plattformen selbst erstreckt.

Diese Aufsicht fördert einen „harmonischeren“ Diskurs, indem absichtlich Rand- und Extremstimmen zensiert und eingeschränkt werden, was die Polarisierung verringert, aber die Meinungsfreiheit einschränkt – eine Dynamik, die für demokratische Gesellschaften weniger anwendbar ist.

Die Studie trägt zu den Forderungen von Regulierungsbehörden und Experten weltweit nach Lösungen bei, die die zugrunde liegenden strukturellen Probleme sozialer Netzwerke ansprechen, anstatt deren Symptome zu behandeln, und spiegelt ein wachsendes Bewusstsein dafür wider, dass kleine Änderungen allein wahrscheinlich nicht in der Lage sind, die Herausforderungen zu lösen, mit denen diese Plattformen konfrontiert sind.
AI Disclaimer: An advanced artificial intelligence (AI) system generated the content of this page on its own. This innovative technology conducts extensive research from a variety of reliable sources, performs rigorous fact-checking and verification, cleans up and balances biased or manipulated content, and presents a minimal factual summary that is just enough yet essential for you to function as an informed and educated citizen. Please keep in mind, however, that this system is an evolving technology, and as a result, the article may contain accidental inaccuracies or errors. We urge you to help us improve our site by reporting any inaccuracies you find using the "Contact Us" link at the bottom of this page. Your helpful feedback helps us improve our system and deliver more precise content. When you find an article of interest here, please look for the full and extensive coverage of this topic in traditional news sources, as they are written by professional journalists that we try to support, not replace. We appreciate your understanding and assistance.
Newsletter

Related Articles

Berlin Today
×