Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenloses um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereiche, welche für Gäste verwehrt bleiben

PC & Internet Wie Meta/Facebook unabhängige Forschung blockiert

Mit Ad Observatory und AlgorithmWatch hat Facebook zwei unabhängigen Forschungsprojekten die (Daten-)Grundlage entzogen. Doch die Geblockten geben nicht auf.
Der jüngst in Meta umbenannte Facebook-Konzern kontrolliert mit seinen Diensten von Facebook über Instagram bis hin zu WhatsApp einen Großteil der Social-Media-Aktivitäten weltweit. Doch im selben Maß, wie die Plattformen Grenzen überwinden und Verbindungen schaffen, bergen sie auch enorme gesellschaftspolitische Sprengkraft: durch unbemerkt ablaufende Desinformationskampagnen, feingranular ausgespielte politische Werbung (Microtargeting) und von den Algorithmen bevorzugte Inhalte, die Klischees und Rollenbilder zementieren.

Belastbare Aussagen über die Größenordnung oder exakte Wirkungsweise sind allerdings schwer zu treffen. Forscher und zivilgesellschaftliche Organisationen versuchen deshalb vor allem im Vorfeld wichtiger Wahlen, den Mechanismen rund um die Verbreitung politischer Botschaften und Werbung auf den Grund zu gehen.

An vorderster Front kämpft die Computerwissenschaftlerin
Du musst dich Anmelden oder Registrieren um diesen link zusehen!
, die sich mit anderen Forschern
Du musst dich Anmelden oder Registrieren um diesen link zusehen!
zusammengeschlossen hat, um fürs Nutzer- und Gemeinwohl schädliche Entwicklungen auf Social-Media-Plattformen frühzeitig zu erkennen und gegenzusteuern. So rief die Gruppe ein viel beachtetes Datenspendeprojekt namens Ad Observatory ins Leben,
Du musst dich Anmelden oder Registrieren um diesen link zusehen!


Facebook sperrt Wissenschaftler aus​

Doch das Untersuchungsobjekt zeigte sich nur mäßig begeistert und sperrte nach monatelangen Auseinandersetzungen schließlich im August dieses Jahres die Facebook-Konten der Wissenschaftler. Begründung: Das von den freiwilligen Teilnehmern der Studie installierte Browser-Add-on, das individuell ausgespielte Werbung und deren Metadaten automatisiert an die Cybersecurity-Server übertrug, habe die Privatsphäre von Facebook-Nutzern verletzt. Somit konnten Edelson und ihre Mitstreiter weder Erkenntnisse über politisches Werbe-Targeting im Dunstkreis der vergangenen US-Wahlen gewinnen noch ihre Forschungen zu Covid-19-Desinformation fortsetzen.
Du musst dich Anmelden oder Registrieren um diesen link zusehen!



Diese vom Ad Observer entdeckte Botschaft stufte Facebook nicht als politische Werbung ein.
(Bild: Cybersecurity for Democracy)

Betreutes Forschen​

Auf der diesjährigen
Du musst dich Anmelden oder Registrieren um diesen link zusehen!
Anfang November präsentierte Edelson nun dennoch eine gemeinsam mit Kollegen der Universität Grenoble verfasste Studie, die Nutzerreaktion und -interaktion auf Desinformationsseiten untersucht. Die Studie gibt auf zweierlei Art zu denken: Zum einen konnten die Forscher nachweisen, dass Posts von Seiten, die als unseriös gelten, bis zu sechsmal mehr Interaktion (also Shares und Likes) auslösen als Posts auf neutralen, faktengestützten Quellen.

Zum anderen zieht Edelson das ernüchternde Fazit, dass diese Erkenntnisse erst ein Anfang sind und eine Menge interessanter Fragen aufwerfen, die sich aber mit dem von Meta/Facebook über die offizielle Research-Schnittstelle bereitgestellten Datenmaterial nicht beantworten ließen – womit der vielversprechende Anfang auch gleichzeitig das Ende markiere.

Algorithm Watch: Instagram-Projekt im Streit beendet​

Denn anders als das Ad-Observatory-Projekt stützt sich die Fake-News-Studie ausschließlich auf die offizielle Forscherschnittstelle CrowdTangle des Konzerns. Laut Edelson unterschlägt diese aber wichtige Daten wie etwa die Post Impressions, die es erlauben würden, die Ursachen der beobachteten Effekte zu ergründen. Im Gespräch mit c’t gibt die Wissenschaftlerin Einblick in das mühsame Geschäft, dem größten Datenschatz der Welt valide Informationen abzuringen (siehe Kasten unten).
Ähnlich erging es der deutschen Non-Profit-Organisation
Du musst dich Anmelden oder Registrieren um diesen link zusehen!
, die sich die Erforschung der Auswirkung algorithmisch getroffener Entscheidungen auf die Fahnen geschrieben hat.
Du musst dich Anmelden oder Registrieren um diesen link zusehen!
auf unmissverständlichen Druck des Mutterkonzerns hin. Auch diese Projekte lebten von einem selbst entwickelten Datenspende-Add-on, mit dessen Hilfe ergründet werden sollte, welche Art von Content die Algorithmen bevorzugen. Vorläufiges Ergebnis: Sie honorieren eher stereotype Darstellung von Frauen, bevorzugt leicht bekleidet.

Laut AlgorithmWatch zweifelte Facebook nicht nur die Ergebnisse an und bescheinigte der Forschung pauschal methodische Schwächen, sondern drohte auch mit "formelleren Konsequenzen", weil das automatisierte Sammeln von Nutzerdaten die "Terms of Services" des Konzerns verletzten.


Im Kern ist es also ein ähnlicher Konflikt wie beim Ad Observer: Facebook stuft die Add-ons als Tools für automatisiertes Scrapen ein und stellt sie damit auf eine Stufe mit missbräuchlichen Verwendern wie Cambridge Analytica oder Clearview AI, die teils sensible Daten im großen Stil (auch von Nutzern, die nicht eingewilligt haben) von der Plattform abgesaugt hatten. Sowohl AlgorithmWatch als auch Cybersecurity for Democracy legen ihre Methoden und den verwendeten Code aber offen und stellen klar: Sie analysieren ausschließlich Daten, die Teilnehmer in ihrem privaten Feed angezeigt bekommen und freiwillig teilen. Privater Content anderer Nutzer werde umgehend gelöscht.

Riskanter Rechtsweg​

Diese Sichtweise vor Gericht durchzusetzen, hält AlgorithmWatch-Geschäftsführer Matthias Spielkamp allerdings für wenig aussichtsreich. Denn "ob und wie Geschäftsbedingungen anwendbar sind, ist weltweit umstritten und weitgehend ungeklärt. Bei der Frage, ob man einen Rechtsstreit wagt, spielt nicht allein die Frage eine Rolle, ob man glaubt, die besseren Argumente zu haben. Es geht auch darum, ob man sich in ein Verfahren begeben will, das leicht Jahre dauern kann (bis zu zehn, wenn es bis vor den EuGH geht) und in dem man einen Gegner mit faktisch unbegrenzten Ressourcen hat", erklärt er auf Nachfrage von c’t.

Mehr verspricht er sich von Bemühungen, Transparenz direkt über gesetzliche Regelungen im Zuge des Digital Services Act zu erzwingen: "Die Tatsache, dass die Kommission bereit war, in Artikel 31 des Gesetzesvorschlags den verpflichtenden Datenzugang für externe Forschung zu verankern, zeigt die Bereitschaft, hier etwas zu erreichen." Allerdings müsse man auch hier aufpassen, dass die Ausnahmeregelung zum Schutz von Geschäftsgeheimnissen in Artikel 31(6)(b) von den Plattformen nicht als willkommenes Schlupfloch genutzt werde, um externe Forschung abzuwehren. "Es scheint jedoch derzeit, dass dieses Schlupfloch geschlossen werden könnte", gibt er sich optimistisch.

Facebook ging auf unsere detaillierten Fragen zur Verbesserung der Zusammenarbeit mit Forschern sowie den aktuellen Fällen nicht ein, sondern verwies auf und zitierte aus bereits veröffentlichten
Du musst dich Anmelden oder Registrieren um diesen link zusehen!
.
Quelle: c‘t
 
Zurück
Oben