Profit vor Schutz: Die Architektur der algorithmischen Ausbeutung
Failed to add items
Add to basket failed.
Add to wishlist failed.
Remove from wishlist failed.
Adding to library failed
Follow podcast failed
Unfollow podcast failed
-
Narrated by:
-
By:
About this listen
Unsere Feeds sind kein Zufall. Algorithmen entscheiden, was wir sehen, und sie haben ein klares Ziel: maximales Engagement. Diese Folge deckt auf, wie Plattformen wie Meta und TikTok bewusst Wut und Spaltung fördern, um uns länger online zu halten – ein Systemfehler mit Methode, wie Whistleblower beweisen. Wir untersuchen, warum Inhaltsmoderation scheitern muss und wie die "Sicherheitsfilter" neuer KI-Bildgeneratoren mehr die Bilanzen der Konzerne als die Nutzer schützen. Eine Reise in die zynische Logik hinter den Kulissen unserer digitalen Welt.
Quellen:
(https://www.otto-brenner-stiftung.de/fileadmin/user_data/stiftung/02_Wissenschaftsportal/03_Publikationen/AH110_OERM_Soziale_Netzwerke.pdf)
https://www.nea.org/nea-today/all-news-articles/facebook-whistleblower-frances-haugen-educators-students-can-lead-social-media-reform
https://globalwitness.org/en/campaigns/digital-threats/tiktok-and-facebook-fail-to-detect-election-disinformation-in-the-us-while-youtube-succeeds/
https://www.cbsnews.com/video/court-documents-reveal-tiktok-owners-knew-apps-impact-on-childrens-mental-health/
https://www.brookings.edu/articles/rendering-misrepresentation-diversity-failures-in-ai-image-generation