Social Bots und Mensch-Roboter-Interaktion in der Online-Wissenschaftskommunikation
Arbeitsgruppe | Alltagsmedien |
Laufzeit | 10/2022-offen |
Förderung | IWM Hausmittel |
Projektbeschreibung
Dieses Promotionsprojekt untersucht das Verhalten von Social Bots, d.h. Social Media Accounts, die nicht von Menschen, sondern von Software oder Algorithmen gesteuert werden, in der Online-Wissenschaftskommunikation, insbesondere ihre Interaktionen mit menschlichen Accounts, und die Auswirkungen dieses Verhaltens: Welche Art von Inhalten wird von Social Bots eher (erneut) gepostet? Wie und in welchem Ausmaß beeinflusst die Aktivität von Social Bots die öffentliche Wahrnehmung der Wissenschaft? Und wie könnten menschliche Nutzer Social Bots erkennen, um deren Einfluss zu vermeiden?
In diesem Projekt sollen insbesondere zwei Aspekte des Verhaltens von Social Bots untersucht werden: die Inhalte, die Social Bots tendenziell posten und teilen, sowie die Interaktion zwischen Social Bots und menschlichen Nutzern. Social-Media-Inhalte, die sowohl von Social Bots als auch von menschlichen Konten gesendet und gepostet werden, werden mit Hilfe von Themenmodellen verglichen, um Unterschiede in den Themen und der Rhetorik aufzuzeigen, was die Themen verdeutlicht, die Social Bots zu fördern versuchen, z.B. ob Social Bots eher wissenschaftsfeindliche oder pseudowissenschaftliche Inhalte posten. Als Nächstes sollen auf der Grundlage der Netzwerkanalyse menschliche Konten identifiziert werden, die mit größerer Wahrscheinlichkeit mit Social Bots interagieren, was der Öffentlichkeit dabei helfen könnte, Bots zu erkennen.
Des Weiteren sollen die potenziellen Auswirkungen von Inhalten, die von Social Bots gesteuert werden, auf menschliche Nutzer und deren Fähigkeit, Social Bots zu erkennen, in experimentellen Settings untersucht werden. Welche Faktoren könnten die Fähigkeit eines Menschen beeinflussen, Social Bots zu erkennen? Wie könnte diese Fähigkeit Menschen helfen, von Bots gesteuerte Fehlinformationen zu erkennen? Welche Art von Intervention könnte angewandt werden, um solche Fehlinformationen wirksam zu entlarven? Ziel dieser Studie ist es, Erkenntnisse über das Verhalten von Social Bots in der Wissenschaftskommunikation zu gewinnen, um den Prozess des öffentlichen Verständnisses von Wissenschaft zu erleichtern und wissenschaftliche Fehlinformationen in sozialen Medien zu entlarven.
Kooperation
Prof. Dr. Guido Zurstiege (Eberhard Karls Universität Tübingen, Institut für Medienwissenschaft)