Wie Facebook, Paypal und Twitter den Dschihad unterstützen

In den letzten Jahren haben große Social Media und andere Online-Unter­nehmen ver­sucht, Inhalte, die als islam- oder mus­lim­kri­tisch inter­pre­tiert werden könnten, ein­zu­schränken oder sogar zu kri­mi­na­li­sieren, selbst wenn das Material nur Worte und Taten radi­kaler Isla­misten aufdeckt.

(Ben­jamin Wein­garten/ Gatestone Institut)

Der kürz­liche Versuch der digi­talen Zah­lungs­plattform PayPal, zwei kon­ser­va­tiven Orga­ni­sa­tionen – Jihad Watch und der Ame­rican Freedom Defense Initiative – zu ver­bieten, den Service wei­terhin als Spen­den­konto zu nutzen, ist ein per­fektes Bei­spiel dafür. Obwohl PayPal das Verbot rück­gängig gemacht hat, war sein erster Schritt Teil eines anhal­tenden Krieges gegen die freie Mei­nungs­äu­ßerung von Kon­ter­ji­ha­disten — den­je­nigen, die Ideo­logie, Ziele, Tak­tiken und Stra­tegien isla­mi­scher Hege­mo­nia­listen auf­decken und ver­suchen, die isla­mische hege­mo­nialeglobale Agenda zu besiegen oder zumindest abzuwehren.

Bei­spiele für eine solche Zensur gibt es viele. Im Oktober 2016 ver­kündete zum Bei­spiel die „PragerU“ des kon­ser­va­tiven Radio­mo­de­rators und Autors Dennis Prager – die fünf­mi­nütige Clips pro­du­ziert, die von füh­renden Experten aus Wirt­schaft, Politik, Kultur und der natio­nalen Sicherheit prä­sen­tiert werden – dass mehr als ein Dutzend seiner Videos auf YouTube, einer Toch­ter­ge­sell­schaft von Google, nur ein­ge­schränkt zugänglich sind. In der Praxis bedeutete dies, dass Benutzer, die den Filter für sexuell explizite oder gewalt­tätige Inhalte akti­viert haben, davon aus­ge­schlossen wurden.

Unter diesen ein­ge­schränkten Videos waren jedoch sechs, die sich auf den Islam bezogen: Was ISIS will („What ISIS Wants„), prä­sen­tiert von Tom Jos­celyn, Senior Fellow der Foun­dation for Defense of Demo­cracies; Warum kämpfen Femi­nis­tinnen nicht für mus­li­mische Frauen? („Why Don‘ t Femi­nists Fight for Muslim Women?„) prä­sen­tiert von Ayaan Hirsi Ali, Fellow am Stanford’s Hoover Institute und am Belfer Center in Harvard; Isla­mi­scher Terror: Was ame­ri­ka­nische Muslime tun können („Isla­mi­scher Terror: What Muslim Ame­ricans Can Do„), prä­sen­tiert von Khurram Dara, einem mus­li­mi­schen ame­ri­ka­ni­schen Akti­visten, Autor und Anwalt; Pakistan: Können Scharia und Freiheit koexis­tieren? („Pakistan: Can Sharia and Freedom Coexist?“ und „Why Do People Become Islamic Extre­mists?„) prä­sen­tiert von Haroon Ullah, einem Pro­fessor für Außen­po­litik an der Georgetown Uni­versity, und Radi­kaler Islam: Die gefähr­lichste Ideo­logie(„Radical Islam: The Most Dan­gerous Ideology„), prä­sen­tiert von Raymond Ibrahim, Autor des Al Qaida Readers.

PragerU ver­folgt nun recht­liche Schritte gegen Google/YouTube, nachdem sie gerade eine mög­li­cher­weise wichtige Prä­ze­denzfall-set­zende Klage gegen den Inter­net­riesen vor dem US Dis­trict Court in Kali­fornien ein­ge­reicht hat, weil Google/YouTube angeblich die Videos von PragerU auf­grund der kon­ser­va­tiven poli­ti­schen Iden­tität und des Stand­punktes des Unter­nehmens dis­kri­mi­niert und zensiert.

PragerU ist nicht allein damit, dass ihre Inhalte – von ange­se­henen Denkern prä­sen­tiert – von Social Media-Unter­nehmen als mit Por­no­grafie oder ähnlich unan­ge­mes­senem oder anstö­ßigem Material ver­gleichbar behandelt wird. Zum Beispiel:

  • Im Januar 2015, nur zwei Wochen nachdem Facebook CEO Mark Zuckerberg eine #JeSu­i­sCharlie Erklärung zur Ver­tei­digung der freien Mei­nungs­äu­ßerung ver­fasst hatte – nach dem isla­mis­ti­schen Ter­ror­an­schlag auf die Pariser Sati­re­zeit­schrift Charlie Hebdo – zen­sierte Facebook Bilder des Pro­pheten Mohammed in der Türkei.
  • Im Januar 2016 wurde die Facebook-Seite „Justin Trudeau Not“, die Inhalte ent­hielt, die kri­tisch gegenüber den Ansichten des kana­di­schen Pre­mier­mi­nisters zum isla­mi­schen Hege­mo­nia­lismus waren, von Facebook als „Ver­letzung der Gemein­schafts­stan­dards“ gelöscht. Das Ver­gehen? Die Autoren der Seite „kon­tras­tierten Tru­deaus sofortige Ver­ur­teilung eines Pfef­fer­spray-Angriffs gegen Muslime in Van­couver mit seiner völ­ligen Wei­gerung, sich in Calgary gegen einen Feu­er­waf­fen­an­griff von Mus­limen zu wenden“.
  • Im Mai 2016 wurde der Admi­nis­trator einer Trump-freund­lichen Gruppe von Facebook für die Ver­öf­fent­li­chung dieses Pos­tings ver­bannt: „Donald Trump ist nicht anti-Muslim. Er ist anti-ISIS. Was Trump zu sagen ver­sucht, ist, dass Homeland Security nicht unter­scheiden kann, welcher Muslim radikal ist, der Schaden anrichten will und welcher ein harm­loser Flüchtling ist. Wer ist bereit, die Sicherheit seiner Familie für die poli­tische Kor­rektheit zu opfern? Bist du es?“
  • Im Juni 2016 ent­fernte YouTube ein Video – Morden für eine Sache: Gesetz der Scharia & Zivi­li­sa­tions-Dschihad („Killing for a Cause: Sharia Law & Civi­lization Jihad„) – das das Ziel isla­mi­scher Hege­mo­nisten ver­deut­lichte, den Westen von innen heraus zu untergraben.
  • Eben­falls im Juni 2016 sus­pen­dierte Facebook das Konto der schwe­di­schen Schrift­stel­lerin Ingrid Carl­qvist für die Ver­öf­fent­li­chung eines von Gatestone Institute pro­du­zierten Videos über Schwedens Migranten-Ver­ge­wal­ti­gungs-Epi­demie („Sweden’s Migrant Rape Epi­demic„). Nachdem Gatestone-Leser kri­tisch auf die Zensur reagiert hatten, berich­teten die schwe­di­schen Medien über den Fall, und Facebook setzte das Video ohne jeg­liche Erklärung oder Ent­schul­digung wieder ein.
  • Im Mai 2017 wurde Jayda Fransen, die stell­ver­tre­tende Vor­sit­zende von Britain First, einer Partei, die sich „zur Auf­recht­erhaltung der natio­nalen Sou­ve­rä­nität, Unab­hän­gigkeit und Freiheit Groß­bri­tan­niens ver­pflichtet“, für 30 Tage von Facebook ver­bannt, weil sie „wie­derholt Dinge poste, die auf Facebook nicht erlaubt sind“. Das Posting, das angeblich die vor­über­ge­hende Sperre aus­löste, war ein Meme, das die Passage aus dem Koran zitierte: „O du, der du glaubst! Nimm nicht die Juden und Christen zu Freunden… Allah leitet nicht die Übeltäter.“
  • Eben­falls im Mai 2017 blo­ckierte und schloss Facebook die Seiten von zwei popu­lären gemä­ßigten mus­li­mi­schen Gruppen, die von Arabern auf der ganzen Welt ver­waltet und besucht werden, die nicht nur Gewalt und Ter­ro­rismus, sondern auch den Islam als Religion ablehnen, mit der Begründung, dass ihr Inhalt „gegen Gemein­schafts­stan­dards verstoße“.
  • Im August 2017 wurde ein YouTube-Kanal mit einer Wie­der­ga­be­liste von Videos des Best­sel­ler­autors und Gelehrten Robert Spencer, der Direktor von Jihad Watch, wegen angeb­licher Ver­letzung der „Com­munity Gui­de­lines“ von der Plattform ent­fernt.
  • Später im August 2017 berichtete der Inde­pendent, dass Instagram, Twitter und YouTube angeblich mit dem ira­ni­schen Regime zusam­men­ge­ar­beitet hätten, um „unmo­ra­lische“ Inhalte zu blo­ckieren oder zu zensieren.

Im ver­gan­genen Jahr haben Social Media-Unter­nehmen ihre Benut­zer­richt­linien über­ar­beitet, um den Umfang der Art von Inhalten zu erweitern, die als ent­fer­nungs­fähig gekenn­zeichnet werden können. Diese zielen not­wen­di­ger­weise auf Inhalte und Nutzer, die dem Gebrauch des Dschihad oder Krieg im Dienste des Islam ent­ge­gen­wirken. Bei­spiele für diese Vor­ge­hens­weise sind die folgenden:

  • Im Sep­tember 2016 ver­öf­fent­lichte YouTube neue „Adver­tiser-freund­liche Content-Richt­linien„, wonach „Video-Inhalte, die sen­sible Themen oder Ereig­nisse wie Krieg, poli­tische Kon­flikte, Ter­ro­rismus oder Extre­mismus, Tod und Tra­gödien, sexu­eller Miss­brauch, auch wenn keine dras­ti­schen Bilder gezeigt werden, kenn­zeichnen oder in den Mit­tel­punkt rücken, generell nicht wer­be­fähig [sind]. Bei­spiels­weise können Videos über jüngste Tra­gödien, auch wenn sie für Nach­richten- oder Doku­men­ta­ti­ons­zwecke vor­ge­führt werden, auf­grund des Themas mög­li­cher­weise nicht wer­be­be­rechtigt sein.“ Es ist leicht zu erkennen, wie solche Regeln gegen Men­schen ein­ge­setzt werden können, die ver­suchen, gegen den Dschihad vorzugehen.
  • Im März 2017 hat Google bekannt gegeben, dass es seine Such­funktion ver­bessern wolle, indem es seine 10.000 „Qua­li­täts­be­werter“ „auf­wüh­lende / abstos­sende“ Inhalte mar­kieren lasse. Die Daten, die die Qua­li­täts­be­wer­tungen gene­rieren, werden dann in die Google-Algo­rithmen zur Über­wa­chung und Sperrung von Inhalten auf­ge­nommen. Zwei Monate später hat Google die Richt­linien für „nicht-eng­lisch­spra­chige Web­seiten“ aktua­li­siert. Ein von Google als „auf­wühlend / abstossend“ zitiertes Bei­spiel ist ein Post mit dem Titel „Beweis dafür, dass der Islam böse, gewalt­tätig und into­lerant ist – direkt aus dem Koran…“ Google dagegen nennt ein Handbuch für Lehrer zum Islam einen „hoch­wer­tigen Artikel… mit einer prä­zisen Zusam­men­fassung der wich­tigsten Über­zeu­gungen und Prak­tiken des Islam“.
  • Im August 2017 postete YouTube „Ein Update über unsere Ver­pflichtung zur Online-Bekämpfung von Terror-Inhalten„, das sicher dafür sorgt, konter-dschi­ha­dis­ti­schen Inhalt ins Faden­kreuz zu nehmen:

    „…[W]ir haben im Rahmen unseres Trusted Flagger-Pro­gramms mit mehr als 15 wei­teren Experten-NGOs und ‑Insti­tu­tionen zusam­men­ge­ar­beitet, dar­unter die Anti-Defa­mation League, die No Hate Speech Movement und das Institute for Stra­tegic Dia­logue. Diese Orga­ni­sa­tionen bringen Exper­ten­wissen zu kom­plexen Themen wie Hassrede, Radi­ka­li­sierung und Ter­ro­rismus mit, das uns helfen wird, Inhalte besser zu iden­ti­fi­zieren, die zur Radi­ka­li­sierung und Rekru­tierung von Extre­misten ein­ge­setzt werden. Wir werden diese Experten auch regel­mäßig kon­sul­tieren, wenn wir unsere Politik aktua­li­sieren, um neuen Trends Rechnung zu tragen. Und wir werden auch wei­terhin im Laufe der Zeit weitere Orga­ni­sa­tionen in unser Bera­ter­netzwerk auf­nehmen… Wir werden in Kürze eine schärfere Behandlung auf Videos anwenden, die zwar nicht illegal sind, aber von Nutzern als poten­zielle Ver­stöße gegen unsere Richt­linien zu Hass­reden und gewalt­tä­tigem Extre­mismus gekenn­zeichnet wurden. Wenn wir fest­stellen, dass diese Videos nicht gegen unsere Richt­linien ver­stoßen, sondern umstrittene reli­giöse oder hege­mo­niale Inhalte ent­halten, werden einige Eigen­schaften ent­fernt. Die Videos bleiben auf YouTube hinter einer Zwi­schen­schalte, werden nicht emp­fohlen, werden nicht mone­ta­ri­siert und haben keine Schlüs­sel­funk­tionen wie Kom­mentare, Videos oder Ähnliches.

Es ist hier beach­tenswert, daß eine Gruppe, die oben zitiert wird — die ADL – früher schon ver­schiedene konter-dschi­ha­dis­tische Ein­zel­per­sonen und Orga­ni­sa­tionen negativ gekenn­zeichnet und her­aus­ge­stellt hat. Dies ent­spricht der poli­ti­schen Haltung seines neuen Prä­si­denten Jonathan Green­blatt, der die Orga­ni­sation in eine ent­schieden linke Richtunggelenkt hat.

Dass große Tech­no­lo­gie­un­ter­nehmen die freie Mei­nungs­äu­ßerung von Dschihad-Gegnern offen ersticken, ist schon schlimm genug; was über das Unvor­stellbare hin­ausgeht, ist, dass sie gleich­zeitig isla­mische Hege­mo­nisten befä­higen, genau den Inhalt zu ver­breiten, den die Kon­ter­dschi­ha­disten ent­larvt haben. Es ist eine Praxis, die das Shurat HaDin-Israel Law Centeraktiv durch Straf­ver­folgung bekämpft. Die fol­genden vier Klagen gegen wichtige Platt­formen beleuchten die Art und Weise, wie die Auf­sta­chelung zum Ter­ro­rismus im Internet unge­hindert gedeihen kann, während die­je­nigen, die ihn zu bekämpfen ver­suchen, wegen „Hassrede“ kalt­ge­stellt werden.

  • Lakin gegen Facebook: Die Klage, die 20.000 israe­lische Kläger vertrat, wurde ange­strengt, um Facebook daran zu hindern,“weiterhin ter­ro­ris­tische Akti­vi­täten gegen diese Kläger zu erleichtern“. Die Zivil­kläger schrieben die Woge von paläs­ti­nen­si­schem Ter­ro­rismus, der am 1. Oktober 2015 begann – in deren Verlauf „mehr als 200 Mes­ser­ste­che­reien, mehr als 80 Schuss­ab­gaben und mehr als 40 Angriffe mit Fahr­zeugen“ gegen Israelis verübt wurden – zu Teilen einer „Kam­pagne zu, die von paläs­ti­nen­si­schen Ter­ro­risten vor­an­ge­trieben wurde, die Facebook ver­wen­deten, Möch­tegern-Mörder anzu­regen, sich ein­zu­schreiben, sich zu orga­ni­sieren und los­zu­schicken zum ‚abstechen‘ und ‚abschlachten‘ von Juden. Laut der Kla­ge­schrift waren die Namen und Symbole der paläs­ti­nen­si­schen ara­bi­schen Ter­ro­ris­ten­gruppen und Ein­zel­per­sonen den Behörden bekannt, und „Facebook hat die Daten und die Fähigkeit, die Erbringung von Dienst­leis­tungen für [solche] Ter­ro­risten ein­zu­stellen, aber… hat sich ent­schieden, dies nicht zu tun.“
  • Force vs. Facebook: Die Klage, die fünf ame­ri­ka­nische Opfer von Ter­ror­an­schlägen der Hamas und ihre Familien ver­tritt, suchte Scha­den­ersatz gegen Facebook im Rahmen des U. S. Anti­ter­rorism Act (ATA) für die Bereit­stellung von mate­ri­eller Unter­stützung und Res­sourcen für eine desi­gnierte aus­län­dische Ter­ror­or­ga­ni­sation. Die Klage behauptet, dass bekannte Mit­glieder der Hamas, ein­schließlich „Führer, Sprecher und Mit­glieder,“ offen offi­zielle Facebook-Konten auf­recht­erhielten und benutzten, um „zu kom­mu­ni­zieren, Mit­glieder zu rekru­tieren, Angriffe zu planen und durch­zu­führen und seinen Feinden Furcht ein­zu­flößen“ sowie „ter­ro­ris­tische Dro­hungen aus­zu­stoßen, die Auf­merk­samkeit auf seine Ter­ror­an­griffe zu lenken, Furcht vor Ter­ror­an­griffen ein­zu­fangen und zu ver­stärken, die Zivil­be­völ­kerung ein­zu­schüchtern und zu nötigen, und um die Ver­ant­wortung für Ter­ror­an­griffe zu über­nehmen, ihre erwünschten Bot­schaften über die Ter­ror­an­schläge zu kom­mu­ni­zieren, ihr gewünschtes Publikum zu erreichen, Ergeb­nisse aus den Ter­ror­an­schlägen zu fordern und zu ver­suchen, die Politik und das Ver­halten der Regierung zu beein­flussen.“ Trotz dieser Akti­vi­täten, behauptet die Kla­ge­schrift, hat Facebook der Hamas und ver­wandten Per­sonen und Kör­per­schaften wis­sentlich die Nutzung ihrer Plattform erlaubt, während Facebook behauptet, dass die Facebook-Seiten der Gruppe in einigen Fällen nicht gegen die Unter­neh­mens­richt­linien ver­stoßen haben oder dass nur bestimmte Inhalte gelöscht wurden, während die Seiten wei­terhin aktiv blieben.
  • Cain gegen Twitter: Der Fall, der im November 2015 in Paris im Namen von zwei Opfern/Familien der Ter­ror­an­schläge des Isla­mi­schen Staates (ISIS) in Paris und im März 2016 in Brüssel beim Bun­des­ge­richt ein­ge­reicht wurde, bean­tragte Scha­den­ersatz im Rahmen der ATA, indem er behauptete, dass Twitter mate­rielle Unter­stützung für ISIS geleistet habe. Die Klage behauptet, dass Twitter von ISIS in der Art und Weise benutzt worden sei, wie Facebook von der Hamas ver­wendet worden sei, unter anderem für: Mit­glieder anzu­werben, mit ihnen zu kom­mu­ni­zieren und in Ver­bindung zu bleiben; Angriffe zu planen und durch­zu­führen; sein Image durch die Ver­wendung von Twitter-Bots und Hashtags auf­zu­blähen; und Videos, Bilder und Magazine zu ver­teilen, die gewalt­tätige Nach­richten ent­halten, die anstiften sollen, während ISIS als legi­timer erscheinen solle. Die Klage behauptet, dass Twitter solche Nut­zungen erleichtert habe, indem sie dem isla­mi­schen Staat und seinen Toch­ter­ge­sell­schaften – von denen viele offen Konten unter­hielten – Res­sourcen und Dienste zur Ver­fügung stellte, während sie sich wei­gerten, ISIS-Twitter-Konten zu iden­ti­fi­zieren, und diese nur dann prüften, wenn Twitter-Benutzer oder Dritte darüber berich­teten. Die Kläger argu­men­tierten weiter, dass Twitter ISIS dadurch geschützt hatte: Benach­rich­tigung der Benutzer, wenn es Regie­rungs­über­wa­chung der Twitter-Konten ver­mutete; das US-Jus­tiz­mi­nis­terium zu ver­klagen, um Still­hal­te­order her­aus­zu­fordern, die von Twitter for­derten, Details der Rich­ter­lichen Vor­la­dungen geheim zu halten, selbst wenn die Freigabe die Staats­si­cherheit schä­digen konnte; Behin­derung von US-Geheim­dienstagen­turen beim Kauf des Twitter-Ana­ly­se­werk­zeuges Dataminr, das dazu ver­wendet werden könnte, Ter­ro­ris­ten­tä­tig­keiten und Bedro­hungen zu iden­ti­fi­zieren; und ihre Anti-Beläs­tigung-Richt­linien zu benutzen, um Twitter-Konten von Nutzern zu ver­bieten, die Konten des isla­mi­schen Staates an Twitter melden. Last but not least behauptet die Anklage, dass Twitter nicht nur indirekt davon pro­fi­tiert, dass seine Nut­zer­basis durch den Zuwachs an ISIS-ver­knüpften Accounts zunimmt, sondern auch direkt durch gezielte Werbung pro­fi­tiert. Ein zitiertes Bei­spiel: „Am 17. Mai 2016, plat­zierte Twitter eine Anzeige für ein digi­tales Mar­ke­ting­un­ter­nehmen, OneNorth Inter­active, auf dem Twitter-Account von ‚DJ Nasheed‘ (@djnasheedis), einem ISIS Twitter-Account, der zur Ver­öf­fent­li­chung von Dschihadi-Musik­videos ver­wendet wurde, die von ISIS‘ al-Hayat Media pro­du­ziert wurden.“
  • Gon­zalez vs. Google: Der Fall, im Bun­des­ge­richt ein­ge­reicht im Namen der Familie einer jungen Ame­ri­ka­nerin, die im November 2015 bei den ISIS-Ter­ror­an­schlägen in Paris ermordet wurde, bean­tragt Scha­den­ersatz im Rahmen der ATA, basierend auf Googles Bereit­stellung von YouTube-Zugang zu ISIS. Die Anklage behauptet, ISIS habe YouTube benutzt, um gewaltsame Videos, Bilder und Auf­zeich­nungen zu ver­breiten, zu Terror anzu­stiften und sein Image als all­mächtig zu stärken. Sie behauptet, dass YouTube diese Akti­vi­täten dadurch erleichtert habe, dass es sich geweigert habe, ISIS-ver­knüpfte Konten zu iden­ti­fi­zieren, die Google bekannt waren – und nur solche Konten über­prüfte, die von anderen YouTube-Benutzern gemeldet wurden.

Unab­hängig von den juris­ti­schen Vor­zügen dieser Fälle ist es klar, dass Dschi­ha­disten erheb­liche Vor­teile von Social-Media-Platt­formen ernten und dass es bes­ten­falls schwer­wie­gende Fehler bei der Über­wa­chung der Dschihad-Konten durch die Platt­formen gibt. Schlimms­ten­falls gibt es im Ver­hältnis zum dschi­ha­dis­ti­schen Material eine „eigen­sinnige Blindheit“ und die Anwendung eines dop­pelten Stan­dards auf Pos­tings, die für den Dschihad wirken. Ein Bericht des Middle East Media Research Institute (MEMRI) vom Juni 2017 zeigt, inwieweit dschi­ha­dis­tische Inhalte, die von YouTube-Nutzern mar­kiert wurden, trotz der Zusi­che­rungen, dass solches Material ent­fernt werden würde, in Ruhe gelassen wird. Von den 115 Videos, die MEMRI 2015 auf YouTube meldete, blieben 69 bis zum 27. Februar 2017 aktiv. Viele sind noch heute online. Einige sind so grausam, dass der MEMRI-Bericht eine Warnung an die Leser wegen „dras­ti­scher Bilder“ enthält.

Dies ist nicht nur eine Frage der Rede­freiheit. Im Gegenteil, es gibt Beweise für einen direkten Zusam­menhang zwi­schen dschi­ha­dis­ti­scher Auf­sta­chelung und Ter­ro­rismus. Nach dem Angriff auf die London Bridge im Juni 2017 z.B. stellte sich heraus, dass einer der Täter von Videos inspi­riert war, die von einem Imam namens Ahmad Musa Jibril aus Michigan im Internet gepostet wurden. Das Inter­na­tionale Zentrum für Radi­ka­li­sie­rungs­for­schung fand heraus, dass viele von Jibril’s Anhängern Al Qaida oder ISIS bei­getreten waren. Bereits 2005 beschrieb die Staats­an­walt­schaft Jibril als jemanden, der „seine Schüler dazu ermu­tigte, den Islam durch das Schwert zu ver­breiten, einen hei­ligen Krieg zu führen“ und „Nicht-Muslime zu hassen und zu töten“. Trotz Jibrils Hin­ter­grund ist sein YouTube-Kanal immer noch erreichbar. Von Jordan Schachtel vom Con­ser­vative Review um eine Stel­lung­nahme gebeten, gab ein Google-Sprecher nicht zu ver­stehen, dass Jibril gegen die Content-Richt­linien von YouTube ver­stoßen habe. Auch eine Facebook-Fan­seite und Twitter-Accounts, die Jibrils Pre­digten gewidmet sind, bleiben bis heute online.

Eine damit zusam­men­hän­gende Mani­fes­tation von Vor­ein­ge­nom­menheit gegenüber kon­ter­dschi­ha­dis­ti­schem Material zugunsten dschi­ha­dis­ti­scher Pos­tings auf Inter­net­platt­formen spiegelt sich zusätzlich in der För­derung der paläs­ti­nen­sisch-ara­bi­schen Sache und gleich­zei­tiger Dis­kri­mi­nierung Israels wieder. Neben anderen Bei­spielen für diese unter­schied­liche Behandlung:

  • Im Juni 2008 wurde ent­hüllt, dass Google Earth eine „Ersatz­geo­graphie“ erstellt hatte, die Israel als Staat prä­sen­tierte, der „aus kolo­nialer Eroberung her­vor­ge­gangen war, und nicht auf­grund der Rückkehr eines Volkes aus dem Exil“. Monate, nachdem der Report frei­ge­geben worden war, „ent­fernte Google eine Reihe von Anti-Israel-Abbil­dungen aus seinem Pro­gramm„.
  • Im Dezember 2008 ent­fernte YouTube vor­über­gehend israe­lische Video­clips von Ver­gel­tungs­schlägen der IDF gegen isla­mische Ter­ro­risten, die von Gaza aus Raketen auf israe­lische Städte abge­schossen hatte. Die Website restau­rierte anschließend die Clips, die ent­fernt worden waren, weil Hamas-Unter­stützer sich beschwerten, dass sie belei­digend seien.
  • Im Januar 2013, wurde das Facebook-Konto des dama­ligen Jeru­salem Post-Reporters und jet­zigen Gatestone Institute Distin­gu­ished Senior Fellow Khaled Abu Toameh „aus Sicher­heits­gründen“ gesperrt, nachdem er über Kor­ruption in der Paläs­ti­nen­si­schen Auto­no­mie­be­hörde geschrieben hatte. Obwohl sein Konto am fol­genden Tag wieder akti­viert wurde, wurden die beiden Bei­träge, wegen der es gesperrt worden war, ohne Angabe von Gründen gelöscht. Toameh ant­wortete: „Es ist immer noch eine Frage der Zensur… Jetzt müssen wir vor­sichtig sein mit dem, was wir posten und was wir teilen. Bedeutet das, dass wir ara­bische Regie­rungen nicht mehr kri­ti­sieren können?“
  • Im Mai 2013 änderte Google den Titel seiner Seite „Google – Paläs­ti­nen­sische Gebiete“ in „Google – Palästina„, nachdem die UNO beschlossen hatte, „Palästina“ zu einem Nicht­mit­glied mit Beob­ach­ter­status zu machen.
  • Im Sep­tember 2013 ver­öf­fent­lichte Apple sein neues Betriebs­system mit einer „Welt­zeituhr“, die Jeru­salem ohne Land auf­führt.
  • Im März 2015 meldete Google News eine Story von USA Today mit dem Titel „Paläs­ti­nenser: Zeit für die USA, die Israel-Bezie­hungen neu zu bewerten“ („Pal­es­ti­nians: Time for US to reassess Israel rela­tions„) an oberster Stelle der Seite, unter dem scheinbar nicht ver­wandten Abschnitt „Business“, während es gleich­zeitig direkt dar­unter auf eine Reihe nega­tiver Geschichten über Israel verwies.
  • Im Dezember 2016 führte das Shurat HaDin-Israel Law Center ein Expe­riment auf Facebook durch, um zu sehen, ob der Social Media Gigant paläs­ti­nen­sische Araber und Israelis unter­schiedlich behandelt. Es kre­ierte zwei Seiten – „Stop Pal­es­ti­nians“ und „Stop Israelis“ – und postete mehrere par­allele abfällige und/oder gewalt­tätige Inhalte auf jeder Seite. Anschließend schickte es gleich­zeitig Nach­richten an Facebook, in denen es die Seiten als gegen die Regeln von Facebook ver­stoßend kenn­zeichnete. Innerhalb eines Tages wurde die anti-paläs­ti­nen­sisch-ara­bische Seite geschlossen. Nach einem Auf­schreivon Social-Media-Nutzern und Bericht­erstattung in der hebräi­schen Presse hat Facebook schließlich die Seite „Stop Israelis“ eben­falls ent­fernt – sechs Tage später.

Ein Artikel vom Juli 2017 im Tablet Magazine beleuchtet, wie Algo­rithmen benutzt werden können und werden, um pro-isla­mische und anti­is­rae­lische oder anti­se­mi­tische Erzäh­lungen zu per­p­etu­ieren. Beim Schreiben über Googles neues „Per­spective API“ (Appli­cation Pro­gramming Interface), das „fort­ge­schrit­tenes maschi­nelles Lernen nutzt, um Mode­ra­toren dabei zu helfen, Kom­mentare auf­zu­spüren, die wahr­scheinlich‘ toxisch‘ sind“, berichtet Liel Leibovitz:

„Ich bat Per­spective, fol­gende Meinung zu bewerten: ‚Juden kon­trol­lieren Banken und Medien.‘ Diese alte Kas­tanie, ant­wortete Per­spective, habe eine 10%-ige Chance, als toxisch emp­funden zu werden… Ich ver­suchte es noch einmal, diesmal mit einer anderen Gruppe von Leuten, die ‚Viele Ter­ro­risten sind radikale Isla­misten‘ schreibt. Der Kom­mentar, infor­mierte mich Per­spective, wird zu 92 Prozent als toxisch gesehen.“

Das­selbe, so sagte er, gelte auch für reine Nach­richten, wie in der Fest­stellung: „Drei Israelis wurden gestern Abend von einem mes­ser­schwin­genden paläs­ti­nen­si­schen Ter­ro­risten ermordet, der ‚Allahu Akbar‘ schrie.“ Das, schrieb Lei­bovitz, werde „mit 92 pro­zen­tiger Wahr­schein­lichkeit als toxisch angesehen“.

Der Grund dafür, erklärte er, sei, dass

„Maschinen lernen von dem, was sie lesen, und wenn das, was sie lesen, der Guardian und die Times sind, werden sie auch die inhä­renten Vor­ur­teile dieser Publi­ka­tionen erben. Wie die meisten Men­schen, die die Rekord­zeitung [The New York Times] gelesen haben, glaubt auch die Maschine, dass Aus­sagen über das Abschlachten von Juden umstritten sind, dass die Aus­ein­an­der­setzung mit dem radi­kalen Isla­mismus ver­boten ist und dass bei­läu­figer Anti­se­mi­tismus absolut ver­zeihlich ist… Nicht Worte sind toxisch, sondern die Idee, dass wir jetzt einen Algo­rithmus haben, der den Fana­tismus der anti­jü­di­schen Linken repli­ziert, ver­stärkt und automatisiert.“

Private Tech­no­lo­gie­un­ter­nehmen haben das Recht, alle Arten von Ent­schei­dungen darüber zu treffen, wie sie arbeiten und wen sie ihre Dienste in Anspruch nehmen lassen. In einem markt­wirt­schaft­lichen System sind es die Ver­braucher – und Wett­be­werber -, die angeblich die Macht haben, die Popu­la­rität eines Pro­dukts zu beein­flussen. Gerade aus diesem Grund müssen schäd­liche Akti­vi­täten ent­hüllt werden, so dass der Benutzer- und Markt­druck solche Unter­nehmen zwingt, sich zu refor­mieren. Dennoch kann man die globale Reich­weite von Facebook, Google und den anderen Internet-Giganten nicht ver­leugnen, die es für unzu­friedene Kunden extrem schwierig machen, eine Alter­native zu finden oder zu schaffen. Tat­sache ist, dass in der heu­tigen Welt Men­schen und Unter­nehmen kaum noch exis­tieren, ohne auf diesen Platt­formen präsent zu sein. Wenn solche Platt­formen es wün­schen, können sie die­je­nigen lahm legen, die von ihrer ideo­lo­gi­schen Ortho­doxie abweichen.

Dies ist nicht nur für die poli­ti­schen Kon­ser­va­tiven und Kon­ter­ji­ha­disten pro­ble­ma­tisch, die von den großen Medi­en­kon­zernen negativ behandelt werden. Es ist auch unter dem Gesichts­punkt der Mei­nungs­freiheit besorg­nis­er­regend. Wenn dschi­ha­dis­tische Inhalte unkon­trol­liert über den Cyber­space auf der ganzen Welt ver­breitet werden dürfen, geht es um nationale und inter­na­tionale Sicherheit. Tra­gi­scher­weise für die west­liche Zivi­li­sation haben seine Ikonen der Technik und der Medien – wenn auch unwis­sentlich – mit denen, die aktiv daran arbeiten, sie zu zer­stören, konspiriert.

***

Ben­jamin Wein­garten ist Schrift­steller, Pod­caster, und Medi­en­be­rater. Über­setzung: Daniel Hei­niger

via philosophia-perennis.com