Mit Big Data und Machine Learning zu Manipulation und Fake News

Symbolbild

Ich sehe was, was du nicht siehst

Im Jahr 2011 hat Eli Pariser, heutiger Board President der politischen Nonprofitseite MoveOn.org, mit der Einführung des Begriffs der Filter Bubble im gleichnamigen Buch eine globale Diskussion über die Informationsbeschaffung im Internet angestoßen.
Kurz gesagt bedeutet diese, dass uns Suchmaschinen und Websites nur folgende Informationen zeigen, die wir vermutlich auch sehen möchten. Dadurch entstehen, für die Personalisierung des Internets, mithilfe algorithmischer Filter, Informationsblasen, die Nutzer*innen nur noch vorselektierte bzw. prognostizierte Informationen anzeigen – Stichwort Big Data. Diese Informationen werden über die bisher gesammelten Daten von Nutzer*innen gefiltert. Soweit so bekannt. (1) 

Ein viel kritisierter Nachteil dieser vermeintlich „praktischen“ und komplexitätsreduzierenden Filter ist jedoch die Tatsache, dass sich Menschen dadurch nur noch in ihren eigenen Informationsblasen bewegen, die dieselben Meinungen und Interessen vertreten. Das wird beispielsweise dann zu einem Problem, wenn Personen zu Verschwörungstheorien neigen und immer mehr zu dieser Thematik angezeigt bekommen. So entsteht das Potenzial zur Verbreitung von Fake News in den Sozialen Medien und schlimmer noch ein Radikalisierungsrisiko gefährdeter Gruppen, die sich nur noch „meinungsisoliert“ in ihrer Bubble bewegen. Aber auch das Targeting von Marketingkampagnen wird durch präzise erstellte soziale Profile immer komplexer. (2)

Das Leben in der Bubble

Was hat sich seit 2011 getan? Plattformen wie Youtube und Facebook versuchen seit einigen Jahren gegen die rasante Verbreitung von Fake News und extremistischen Inhalten vorzugehen, die sich nach dem Prinzip der Filterbubble-Algorithmen im Netz verbreiten. Auch Instagram hat immer mehr mit der Verbreitung von Missinformation zu kämpfen. (3) Doch die personalisierte Inhaltsvermittlung begünstigt nicht nur die Verbreitung von Verschwörungstheorien, sondern hat auch das Targeting im Online Marketing nachhaltig verändert.

„Make America great again“
mithilfe von Briten?

Der bekannteste und vermutlich meistdiskutierte Fall ist der Wahlsieg Donald Trumps 2016 mit der vermeintlichen Hilfe einer Facebookkampagne. Dahinter steckt die Forschungsarbeit des Psychologen und Psychometrik-Experten Michal Kosinski, der seit 2008 an einem Test arbeitete, der menschliche Persönlichkeiten anhand ihrer Angaben auf Facebook einordnen sollte. Im Laufe seiner Forschungsarbeit konnte die Methodik so präzisiert werden, dass laut Kosinski mit nur 70 Likes die Menschenkenntnis eines Freundes / einer Freundin übertroffen werden konnte und mit 300 Likes das Verhalten genauer vorhergesagt werden konnte als vom eigenen Partner / von der eigenen Partnerin.

(Der Persönlichkeitstest von Kosinski kann hier anhand der eigenen Facebookdaten durchgeführt werden: https://applymagicsauce.com/ )

Dieses Testverfahren weckte natürlich das Interesse von diversen Firmen u.a. von Cambridge Analytics, jener Firma, die den Online-Wahlkampf von Donald Trump in den USA und den Brexit in Großbritannien (erfolgreich) leiteten. Mithilfe von Kosinskis Methodik wurden durch Microtargeting kleinen Personengruppen die perfekte Wahlwerbeanzeige ausgespielt, auch wenn diese sich zum Teil sogar widersprachen. Donald Trump wurde so zum persönlichen Präsidenten für jede*n. (4)

Zukunftsforscher Harry Gatterer spricht in diesem Zusammenhang von „N-ich-t Propaganda“, die die „freie Wahl“ von Menschen „erleichtern“ sollte. Weiters sagt er, dass alle öffentlichen Einheiten in unsere „Ich-Welten“ eindringen möchten, um in ihr eine signifikante Rolle einzunehmen, seien es Parteien, Unternehmen oder andere Organisationen. Wir würden längst nicht mehr finden wonach wir suchen, sondern gefunden werden. (5)

Icons von diversen Apps

Instagram: Das neue Paradies
für Verschwörungstheorien?

Während Facebook und Youtube bereits lange versuchen ihre Seitenmoderation bzgl. Fake News Bubbles zu verbessern, sind diese mittlerweile auch längst auf Instagram angekommen. Ein Vice-Artikel von März 2019 trägt die reißerische Überschrift „It Took 10 Seconds for Instagram to Push me Into an Anti-Vaxx Rabbit Hole“. In dem Artikel erstellt eine Person einen neuen Account und folgt einem impfkritischen Profil. Daraufhin werden der Person sofort weitere Accounts mit ähnlichem Inhalt vorgeschlagen und die Explore-Seite auf Instagram ist voll mit Impfgegneraccounts. (6)

Um den Mechanismus zu verstehen, muss man einen genaueren Blick auf den Explore-Algorithmus von Instagram werfen: Vereinfacht dargestellt schlägt Instagram seinen User*innen mithilfe von Machine Learning (ML), genauer der Methode „Word embedding“ (Dabei werden die Wörter, die im Text verwendet werden, daran gemessen, wie sie sich zueinander verhalten. So taucht beispielsweise das Wort „Feuer“ oft neben dem Wort „Alarm“ auf, aber nicht neben dem Wort „Sandwich“ usw.), Accounts vor, die ähnlich den bisher gefolgten sind. Instagram verwendet diese Methode, um herauszufinden welche Accounts ähnlich sind. (7) 

In Bezug auf den Vice-Artikel hat der Algorithmus also alles richtig gemacht. Allerdings sollte dieser nicht nur ähnliche Profile vorschlagen, sondern vor gefährlichen und extremistischen Inhalten schützen. So schreibt Facebook über den Instagram Explore-Algorithmus selbst: „In addition to blocking likely policy-violating content and misinformation, we leverage ML systems that help detect and filter content like spam.“ (8) 

Kann AI Fake News und Missinformation filtern?

Das spezifische Moderationsproblem von Facebook und Instagram ist nicht zuletzt der Größe der Plattformen geschuldet. Einen geeigneten AI-Filter zu entwickeln, der Fake News blockiert klingt naheliegend, ist jedoch mit einigen Schwierigkeiten verbunden:

  • AI kann nach derzeitigem Stand weder Ironie noch andere feine Nuancen in Texten erkennen.
  • AI kann weder kulturellen Kontext verstehen, noch kann sie recherchieren um Fake News zu entkräftigen. 

Derzeit kann AI, ähnlich wie ein E-Mail Spamfilter, bestimmte Keywords oder Hashtags filtern. Eine verlässliche, rein AI-basierte Filtermethode ist derzeit nicht möglich, aber wird jedenfalls unterstützend zu menschlichen „Fact-Checkers“ eingesetzt. Ziel des aktuellen Ansatzes ist es, ML durch Menschen zu unterstützen und so weiter voranzutreiben. (9)


Diese Beiträge könnten dich auch interessieren:


Quellen

1.
Fischer, Tin (2017): Filterblase? URL: https://www.zeit.de/2017/34/algorithmen-filterblase-meinungen-selbstbetrug [18.04.2020]

2.
Esnaola, Elena (2019): Polarisiert die „Filter Bubble“? URL: https://www.basecamp.digital/meinungsbildung-im-netz-polarisiert-die-filter-bubble/ [18.04.2020]


3.
Vincent, James (2018): Why AI isn’t going to solve Facebook’s fake news problem, URL: https://www.theverge.com/2018/4/5/17202886/facebook-fake-news-moderation-ai-challenges [18.04.2020]


4.
Grassegger, Hannes; Krogerus Mikael (2016): Ich habe nur gezeigt, dass es die Bombe gibt,
URL: https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ [19.04.2020]

5.
Gatterer, Harry (2020): Ich mach mir die Welt. Wie wir mehr Leben in unsere Zukunft bringen, 1. Aufl., Wien: Molden Verlag, S. 124–125

6.
Cox, Joseph (2019): It Took 10 Seconds for Instagram to Push me Into an Anti-Vaxx Rabbit Hole, URL: https://www.vice.com/en_us/article/vbwkvm/10-seconds-instagram-recommends-anti-vaxx-vaccine-accounts [18.04.2020]

7.
Vincent, James (2019): Instagram explains how it uses AI to choose content for your Explore tab, URL: https://www.theverge.com/2019/11/25/20977734/instagram-ai-algorithm-explore-tab-machine-learning-method [18.04.2020]

8.
Medvedev, Ivan et al. (2019): Powered by AI: Instagram’s Explore recommender system, URL: https://ai.facebook.com/blog/powered-by-ai-instagrams-explore-recommender-system/ [18.04.2020]

9.
Vincent, James (2018): Why AI isn’t going to solve Facebook’s fake news problem, URL: https://www.theverge.com/2018/4/5/17202886/facebook-fake-news-moderation-ai-challenges [18.04.2020]

Fotos und Bilder: pixabay.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.