Seit Jahren wird vor der Einflussnahme von Social Bots auf die öffentliche Meinung gewarnt. Gerade vor wichtigen politischen Weichenstellungen wie Wahlen sind verdächtige Aktivitäten auf diversen Social-Media-Plattformen festzustellen.
Aber was genau sind Social Bots und was macht sie potenziell gefährlich? Wie groß ist ihr Einfluss bereits und was ist in Zukunft zu erwarten? Die Antworten auf die Fragen haben wir Ihnen in Form einer FAQ zusammengestellt.
Was sind Social Bots?
Ein Bot (Kurzform von englisch „robot“ für „Roboter“) ist eine von Menschen programmierte Anwendung, die nach vorgegebenen Regeln automatisiert Aktionen durchführt. Bots sind aus dem Internet nicht wegzudenken – ein bekanntes Beispiel ist beispielsweise der Googlebot, der im Dienst der Suchmaschine Webseiten auf ihre Inhalte crawlt. An diesem Beispiel wird auch der große Vorteil von Bots für ihre Besitzer deutlich: Sie können Datenmengen in einer Zeit verarbeiten, die für menschliche Nutzer nicht annähernd zu bewältigen ist, und darauf standardisiert reagieren.
Auch auf Social-Media-Plattformen ist die Nutzung von Bots weit verbreitet, Facebook und Twitter etwa bieten selbst Schnittstellen für ihre Implementierung an. Sie helfen Nutzern dabei, automatisch neue Blogbeiträge zu posten oder auf Direktnachrichten zu antworten, und sammeln Beiträge zu bestimmten Hashtags oder Thematiken.
Problematisch wird die Bot-Nutzung dann, wenn sie vorspiegeln, dass sie menschliche Nutzer und menschliches Handeln repräsentieren. Sie sind dann Teil der Problematik der Fake-Accounts. Damit sind Nutzerkonten gemeint, die missbräuchlich verwendet werden, etwa um den Accountwert zu steigern oder Stimmungen und Meinungen zu beeinflussen. Damit verstoßen sie nicht nur gegen die Nutzungsbedingungen der Plattformen, sondern stehen unter anderem im Verdacht, politische Entscheidungen und Aktienkurse von Unternehmen zu manipulieren.
Inwiefern können Bots Meinungen beeinflussen?
Folgende manipulative Verhaltensweisen sind für Social Bots denkbar:
- Verbreitung von Falschinformationen: Durch Interaktion (Teilen, Liken, Kommentieren) mit einer Falschmeldung zu ihrer Verbreitung beitragen
- Steigerung der Nutzerrelevanz: Durch Follower und positive Kommentare steigern Bots den Wert einzelner Accounts, was deren Wert bei steigert (z.B. für Werbekooperationen)
- Verstärkung negativer Stimmung: Einschüchterung von Anhängern einer anderen politischen Strömung bzw. Verunsicherung von Anlegern eines Unternehmens
Social Bots werden häufig mit Twitter in Verbindung gebracht. Das liegt zum einen daran, dass die Plattform eine sehr simple Struktur hat, und zum anderen an ihrer Funktionsweise: Der Kurznachrichtendienst ist – anders als zum Beispiel TikTok und Instagram – sehr textlastig und zählt Politik und Unternehmensentwicklung zu seinen Schwerpunkten. Daher verwundert es nicht, dass viele der beobachteten Fälle mit Twitter in Zusammenhang stehen.
Wer setzt Social Bots ein?
Zu den konkreten Motivationen lassen sich nur Vermutungen anstellen. Über die Urheber der Social Bots ist wenig bekannt. In der Theorie sind lediglich entsprechende Programmierkenntnisse erforderlich, um Bots Leben einzuhauchen, und einmal aufgesetzt, lassen sie sich beliebig replizieren. Auch fehlen Informationen dazu, welche Auftraggeber im Hintergrund agieren. Es steht zu vermuten, dass Lobbyverbände, Geheimdienste und ausländische Parteien im Hintergrund agieren – also Gruppierungen, die kaum zu identifizieren oder kontrollieren sind.
Wie gut lassen sich Bots erkennen?
Könnte jeder Account intensiv von menschlicher Intelligenz kontrolliert werden, ließe sich der Unterschied von menschlichen und programmierten Usern schnell bestimmen. Bei der Vielzahl an Nutzern auf Social-Media-Plattformen sind allerdings technische Systeme notwendig, um mögliche Bots zu identifizieren.
Die Plattformen selbst haben alle Informationen vorliegen, um verdächtige Aktivitäten zu erkennen, und ihre Abwehrsysteme in den vergangenen Jahren stetig nachgerüstet. Allerdings profitieren die Unternehmen hinter den Plattformen von den hohen Nutzerzahlen, die öffentlichkeitswirksam vermarktet werden können, und die Bekämpfung von Fake-Accounts ist zeit- und damit kostspielig, sodass hier nicht zwingend jedes Potenzial ausgeschöpft wird. Besonders Druck aus Nutzerschaft und Politik kann hier ein Umdenken bewirken.
Externe Programme können lediglich die öffentlichen Informationen zu Nutzerprofilen einsehen und daraus Rückschlüsse ziehen. Die so gewonnenen Schlüsse sind also immer mit Vorsicht zu genießen und sollten nicht ohne umfangreiche Prüfungen übernommen werden.
Infobox: Wie zuverlässig ist das Tool Botometer?
Das Tool Botometer hat sich zum Ziel gesetzt, Social Bots auf Twitter mittels Machine Learning möglichst verlässlich zu identifizieren. Dazu werden Metriken wie der Freundeskreis, das öffentliche Profil, die Sprache und die zeitliche Verteilung von Aktivitäten berücksichtigt. Daraus errechnet das Tool einen Score, der angeben soll, wie hoch die Wahrscheinlichkeit ist, dass der Account botgesteuert ist.
Mehrere Studien zu Social Bots stützen sich auf die Scores, die Botometer ausgibt. Allerdings sind verschiedene Stimmen laut geworden, die die Verlässlichkeit dieser Scores infrage ziehen. Unter den als Bots identifizierten Nutzern befänden sich kaum Accounts, bei denen sich in einer manuellen Überprüfung der Verdacht erhärtet – stattdessen sei es schon ausreichend, einen inaktiven Account zu besitzen oder ein kaum ausgearbeitetes Profil, um als Bot zu gelten. Daher sollten Sie Programme, die den Unterschied zwischen Bot und Mensch erkennen wollen, mit Vorsicht genießen und die Ergebnisse nicht ohne eigene Überprüfung übernehmen.
Werden Social Bots zukünftig eine größere Rolle spielen?
Die Möglichkeiten von Bots sind noch sehr beschränkt. In einer Diskussion oder im direkten Gespräch wird der menschliche Gegenpart in den meisten Fällen bald feststellen, dass er es mit einem Computerprogramm zu tun hat. Das bedeutet, dass Social Bots eher über Quantität als über Qualität eine Wirkung erzeugen können. Gleichzeitig erwecken sie in der Masse die Aufmerksamkeit der jeweiligen Plattformbetreiber. Ihr schädliches Potenzial verläuft zum jetzigen Zeitpunkt also in begrenzten Bahnen.
Im gleichen Ausmaß, in dem auch Chatbots immer menschenähnlicher agieren, werden allerdings auch die Möglichkeiten für Social Bots steigen. Die Künstliche Intelligenz ist noch lange nicht am Ende ihrer Entwicklung angelangt und es bleibt zu beobachten, ob die Social-Media-Plattformen selbst ausreichende Maßnahmen ergreifen werden, um die missbräuchliche Nutzung von Bots einzuschränken.