this post was submitted on 28 Mar 2025
117 points (96.8% liked)
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
3514 readers
1469 users here now
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
founded 9 months ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Kann dir anekdotisch als Informatiker mit Kontakten in die Medienpsychologie sagen, dass es dort sehr viel gibt, was man machen könnte, wenn man wollte. Die Strategien sind gut erforscht und entsprechende Gegenmaßnahmen können mithilfe der gleichen wissenschaftlichen Disziplin gefunden werden, auf der die aktuellen süchtigmachenden Designentscheidungen begründet sind.
Ja, dennoch sind wir an einem Punkt angekommen, wo unser gesellschaftlicher Zusammenhalt bedroht wird. Irgendwo werden wir eine Grenze ziehen müssen und ich denke hier wäre eine solche auch gut begründbar, selbst wenn wir die manipulative Wirkung von Werbung nicht grundsätzlich und allgemein aufarbeiten und dagegen vorgehen wollen.
Mit Verlaub, ich denke du unterschätzt ein wenig, wie sehr in der aktuell vorherrschenden Datenökonomie Menschen gezielt algorithmisch beeinflusst werden. Natürlich gibt es auch bei Lemmy Probleme, diese sind aber um Größenordnungen überschaubarer und lassen sich zumindest kritisch diskutieren und verändern, wenn die Community das möchte. Auch hier sind wir wieder an dem Punkt wo ich sage, dass man irgendwo eine Linie ziehen muss - und ich denke, wie gesagt, dass man bei den dicksten Fischen anfangen sollte. Wir sollten ja gesellschaftlich auch idealerweise das Ganze als einen iterativen Verbesserungsprozess sehen, anstelle hier ein one-size-fits-all Megagesetz zu verabschieden.
Es geht mir ja nicht darum, hier den Diskussionsrahmen immer weiter einzuschränken, sondern eben darum, dass entsprechende Algorithmen noch viel stärker als alles, was es davor gab, Leute in immer radikalere Filterblasen pushen oder, wie man an X super sehen kann, politisch motiviert Verschwörungstheoretikern und Nazis absichtlich massiv mehr Reichweite gegeben wird.
Diese enorme Verzerrung der öffentlichen Meinungsbildung ist mit der Demokratie unvereinbar, denn freie Wahlen bringen nichts, wenn die Menschen komplett verschwurbelt und antiaufgeklärt sind. Ich sehe die Entwicklungen auf X, Meta etc. als Frontalangriff auf die Demokratie, denn jetzt wird langsam klar, dass die Reichen und Mächtigen dieser Welt über derarte Propagandasprachrohre ihre Macht ausbauen und dabei die Demokratie zu ihrem Vorteil aushöhlen und - wie in den USA - vielleicht sogar zerstören wollen. Die "Flood the zone with shit"-Strategie von Bannon oder der "A lie, repeated often enough, becomes the truth"-Klassiker sind nur der Anfang, denn mittlerweile sind ja sogar die Plattformen so strukturiert, dass sie solche Taktiken verstärken. Diese Gefahr sollten wir todernst nehmen und entsprechend agieren.
[Edit: Typo]
Oh! Hast du da irgendwelche Lesetipps? Vielleicht nicht gleich ein Buch. Irgendwelche Links, oder Stichworte/Name von Forschern, die man nachschlagen könnte?
Möglich. Ich kenne nichts Aktuelles über die Praktiken. Für Lesetipps wäre ich dankbar aufgeschlossen.
Ich habe einfach nicht den Eindruck, dass man die Hypothese brauch, um den beobachteten Zustand zu erklären.
Der DSA bringt gewisse Transparenzpflichten. Etwas, das ich ausnahmsweise einfach positiv finde. Die Datenbank mit der geschalteten Werbung könnte in dem Zusammenhang aufschlussreich sein.
Ich habe kürzlich in die Datenbank der Moderationsentscheidungen reingeschaut, wegen dieser Redditsache. Aber im anonymisierten Zustand kann man da natürlich nichts rauslesen. Man müsste untersuchen, ob man Auffälligkeiten über die Zeit erkennt, also ob die Moderation sich verändert um den Zeitpunkt als Musk Huffman kontaktiert. Rechtlich wäre da aber kaum was zu machen. Eine Plattform muss aktiv werden, wenn sie von illegalen Inhalten erfährt, egal wie.