Der „Rabbit Hole-Effekt“ ist ein Phänomen auf Social-Media-Plattformen, bei dem Benutzer zu immer extremeren Inhalten gedrängt werden, um das Engagement zu steigern. Vor einem halben Jahr bestritt YouTube-Produktchef Neal Mohan in einem Interview mit der “New York Times” seine Existenz. Seitdem gab es laut Gun Violence Archive in den USA 302 Massenerschießungen. Einige davon wurden von bekannten weißen Supremacisten begangen, von denen viele, wie der El Paso-Schütze, der Anfang August 20 Menschen getötet hat, ihre Überzeugungen und ihre Motivation den Social-Media-Plattformen zugeschrieben haben. Mohans Ablehnung des Kaninchenbau-Effekts war voller Schlagworte und logischer Inkonsistenzen. Sein Fall beruhte auf der Behauptung des Tokens, es sei Sache des Nutzers, einen extremen Pfad für den Inhalt zu wählen. Bei diesem Argument werden die Funktionen “Weiter” und “Autoplay” von YouTube nicht berücksichtigt, die den Nutzer auf algorithmisch ausgewählten Inhalte lenken.
Die Verteidigung der Algorithmen von Twitter ist nicht viel besser. Laut CEO Jack Dorsey wird Twitter nicht alle weißen Supremacist-Posts eliminieren, da die Algorithmen, die rassistische Inhalte bestrafen, auch einige republikanische Politiker bestrafen würden. Die Verleugnung des Kaninchenbaue-Effectes wird tödlich. Um weitere Gräueltaten zu verhindern, müssen wir diesen Effekt in Frage stellen: Warum gibt es ihn, wem hilft er und wie können wir ihn beheben? Es ist nicht realistisch, diese AI (künstliche Intelligenz)-Algorithmen vollständig abzulehnen. Sie sind bereits integraler Bestandteil unserer Wirtschaft und unseres täglichen Lebens. Stattdessen sollten wir uns darauf konzentrieren, diese Tools zu überprüfen, und zu ändern wie sie implementiert werden. Zunächst sollten wir verstehen, wie leistungsfähig Algorithmen sind. Vor drei Jahren hat Cambridge Analytica die persönlichen Profildaten von 50 Millionen Facebook-Nutzern erworben. Diese Benutzer – ihre demografischen Daten, Verbindungen und Vorlieben – wurden zum „Trainingsset“ für die künstliche Intelligenz von Cambridge Analytica. Diese KI profilierte Benutzer mit einem Ensemble Modell: eine Verschmelzung vieler verschiedener maschineller Lerntechniken. Mithilfe von Ensemble-Modellen können Hunderte verschiedener Algorithmen abstimmen, welche Datenpunkte relevant sind, welche Korrelationen wahr oder wichtig sind und welche demografischen Daten für unterschiedliche Arten der Überzeugung anfällig sind. Diese Tools sind nicht spezifisch für Cambridge Analytica. Jedes Social-Media-Unternehmen verlässt sich auf ein solches KI-System, um Benutzer zu profilieren und anzusprechen. Dieses spezielle Modell kann die politische Ausrichtung eines Benutzers mit einer Genauigkeit von bis zu 85 Prozent vorhersagen. Andere Modelle, die noch nicht veröffentlicht wurden, sind wahrscheinlich noch besser. Social Media Plattformen kodifizieren die Zeit ihrer Nutzer. Jeder Moment, den Sie auf der Plattform verbringen, kann verkauft werden. Dies bedeutet, dass Sie mit jedem Werkzeug länger auf der Plattform bleiben. Maschinelles Lernen konzentriert sich auf Benutzer als Individuen. Andere Komponenten zielen auf das universelle menschliche Verhalten ab. Die Funktion, die Seite nach unten zu ziehen, um sie neu zu laden, nutzt unsere Vorliebe für Unvorhersehbarkeit. Social-Media-Plattformen entfernen wie Casinos stoppende Hinweise. Wenn Sie auf etwas klicken, erhalten Sie einen endlosen Stream mit Inhalten, ohne auf einen neuen Bildschirm wechseln zu müssen. Die Art und Weise, wie diese neuen Inhalte ausgewählt werden, führt zurück zum Extremismus-Kaninchenbau. Die meisten Plattformen sind auf dieselbe Innovation gestoßen: Die Leute wollen immer die nächste verrückte Sache. Jemand, der ein harmloses politisches Video sucht, ist nicht daran interessiert, es mit einem anderen zu verfolgen – es ist zu vorhersehbar. Sie wollen etwas, das ein bisschen lauter und ein bisschen einfühlsamer ist. Sie werden auf etwas Extremeres klicken. Jeder, der schon einmal auf YouTube war, weiß, wie einfach es ist, sich von diesen Funktionen verführen zu lassen. Die Algorithmen sind einfach zu gut. Tatsächlich kommen 70 Prozent der Zuschauer eines Videos von der Empfehlungsliste. Darüber hinaus haben Führungskräfte von vielen großen Social-Media-Unternehmen, einschließlich Facebook, bestätigt, dass Social Media gezielt süchtig macht. Eine schnelle Suche nach “Wie man Social Media beendet” liefert 182 Millionen Ergebnisse. Mit einem System, das Sie so gut dazu zwingt, Inhalte zu konsumieren, ist es kein Wunder, dass junge Männer, die nach einem Glaubenssystem suchen, in den sozialen Medien Extremismus finden. Das ist ein großes Problem. In den letzten Monaten haben mehrere Täter von rassistisch motivierten Massenerschießungen ausdrücklich erklärt, dass sie ihre Ansichten von den sozialen Medien bezogen haben. Die Zahl der in den USA begangenen Hassverbrechen steigt seit vier Jahren. Wir haben ein Problem mit Extremismus in den Vereinigten Staaten, und es ist klar, dass das Kaninchenloch eine der Ursachen ist. Derzeit weigern sich die Führungskräfte dieser Social Media-Unternehmen, dies anzuerkennen. Jeder Social-Media-Riese hat ISIS-Inhalte so gut wie von seinen Plattformen entfernt. Kein einziger hat ähnliche Schritte unternommen, um die weißen Oberhäupter zu eliminieren. Der Hauptgrund dafür ist, dass jedes Verbot, das dieses Problem zum Erliegen bringt, auch die Meinungsfreiheit einschränken würde, indem viele Benutzer eliminiert werden, die lediglich über Politik diskutieren. Diese Lösung widerspricht allem, wofür Social Media steht. Es ist unrealistisch zu erwarten, dass die Industrie es einführt. Zum Glück ist es nicht die einzige Option. Wir müssen nicht den ganzen Inhalt loswerden. Wir müssen nur die Art und Weise ändern, wie die Leute dazu kommen. Eine Änderung der Kaninchenbau-Algorithmen könnte einen enormen Einfluss darauf haben, dass Menschen nicht vom Extremismus mitgerissen werden. Wenn Menschen in eine andere Richtung geschickt werden, nicht in eine Richtung, die schockierender und extremer ist, könnten sie die Gelegenheit haben, an ein anderes System zu glauben – eines, über das sie mehr Kontrolle haben, und eines, das sie dazu veranlasst, friedlich und nicht gewalttätig zu sein. Diese Unternehmen würden enorme Summen an Geld verlieren, aber wenn auch nur eine Person davon abhalten kann, diese Überzeugungen zu entwickeln, ist es zweifellos etwas wert.