Annons

Färre följare när nätjättar täpper till kaninhål

Publicerad 2020-09-21 10:49

Vad säger forskningen? Flera högerextrema internetkändisar och grupper har sett sina sociala mediekonton på plattformar som Youtube, Facebook och Twitter släckas ner. 
När de tvingas söka sig till andra, mindre plattformar tappar de följare i tusental, visar forskning.  

I KORTHET:


  • Extremisters räckvidd minskar drastiskt när sociala medieföretag plockar bort deras konton, sidor eller grupper på populära plattformar.
  • Deplattformering beskrivs som ett sätt att bemöta extremism online och knuffa extremister tillbaka ut i periferin.
  • Samtidigt uppstår nya problem när extremister söker sig till andra, mindre plattformar där innehållet inte modereras.

     

FAKTALABBET. Extremister använder sociala medier för att nå ut till en bredare och större publik, framstå som trovärdiga och försöka bryta sin förvisning till den politiska marginalen och i stället ta plats i den politiska mittfåran. Plattformar som Youtube, Twitter, Instagram och Facebook har miljonpublik och driver mer trafik till extremt innehåll än alternativa sociala medieplattformar eller andra sajter. Att sociala medier blivit en arena där rasism, sexism, homofobi och hat normaliseras, och där extrema ideologier vinner legitimitet, har gjort att de sociala mediejättarna är under ökat tryck från beslutsfattare, civilsamhälle och användare att agera. 

Kör bort dem från mainstream-plattformarna

I debatten som förs undrar en del varför techjättarna inte bara tar krafttag mot högerextrema, precis som de gjort med Islamiska staten. IS hade en stor och påtaglig närvaro i våra mest besökta sociala medier under åren 2014 till 2017 – i dag är deras nätverk där i spillror eftersom företagen aktivt plockat bort konton, ibland i samma stund som de skapats. En utveckling som bland annat beskrivs i Disrupting Daesh: Measuring Takedown of Online Terrorist Material and Its Impact.

Men det går inte att jämföra IS med den högerextrema miljön, anser forskaren Maura Conway, professor vid universitetet i Dublin och koordinator för VOX-pol, ett forskningsnätverk som studerar våldsbejakande politisk extremism online. 

I Routing the Extreme Right: Challenges for Social Media Platforms beskriver hon varför jämförelsen haltar. Bland annat för att IS är en organisation med tydlig varumärkesstrategi, medan högerextremismen är en spretig miljö med en uppsjö aktörer och inriktningar. Att stävja högerextremism online kräver något helt annat av beslutsfattare, företag och civilsamhälle.

Med det sagt tycker Maura Conway att en vanlig missuppfattning är att techjättarna inte alls har agerat mot extremism på deras plattformar. 

– Jag ingår inte i någon hejarklack för sociala medieplattformar och jag anser att de har mycket att svara för, men det går inte att påstå att de inte har gjort något alls åt detta, för det har de. De har ändrat användarvillkoren på avgörande sätt de senaste åren för att komma till rätta med hat och högerextremt innehåll. Det är möjligt att kritisera dem för att de inte har gjort tillräckligt eller att de inte varit snabba nog, men de har inte gjort ingenting, säger hon. 

Högerextrema internetkändisars uppgång och fall

Vid det här laget finns flera exempel på högerextrema profiler som blivit utkastade från de mest populära sociala medierna. Förra hösten stängde till exempel Youtube ner högerextreme Henrik Palmgrens ”Red Ice”, som med sina drygt 300 000 prenumeranter räknades som en av de viktigaste vitmaktkanalerna, enligt amerikanska människorättsorganisationen Southern Poverty Law Centre.

Inflytelserika konspirationsteoretikern David Icke blev av med Facebook och Youtube i våras. Brittiska Katie Hopkins, som kallar sig själv för en ”kvinnlig Farage” och är ökänd för sina många fördomsfulla och rasistiska uttalanden, stängdes i somras av för gott från Twitter där hon hade över en miljon följare. 

Några andra kända högerextrema profiler som blivit utkastade från olika sociala medier de senaste åren är anti-semiten och före detta KKK-ledaren David Duke, högerextrema konspirationsteoretikern Alex Jones, konspirationsteoretikern och politiska aktivisten Laura Loomer, provokatören Milo Yiannopoulos och grundaren av anti-muslimska English Defence League Tommy Robinson.

Alla för att på olika sätt brutit mot plattformarnas användarvillkor som förbjuder hat, hot och förhärligande av våld. 

Även grupper har kastats ut

Det är inte bara högerextrema profiler som kastats ut från plattformarna, utan även organisationer. Rasistiska Granskning Sverige har till exempel upprepade gånger stängts av från Facebook. Nordiska motståndsrörelsen blev av med sitt Twitterkonto redan 2018. Samma år stängdes fascistiska Britain First av från Facebook, kort efter att ledarna Paul Golding och Jayda Fransen hade dömts för hatbrott. 

…och rörelser

Försök har också gjorts att begränsa högerextrema strömningar i sociala medier. I somras agerade flera techjättar mot konspirationsteorin QAnon – en löst sammansatt högerextrem rörelse som gått från att vara liten och udda till att vinna allt bredare stöd. Anhängarna tror att Donald Trump motarbetas av en grupp högt uppsatta djävulsdyrkande pedofiler, där bland andra Hillary Clinton, Barack Obama, Tom Hanks och Oprah Winfrey sägs ingå.

Ett antal QAnon-supportrar har tagit till våld och konspirationen har kommit att betraktas som farlig. Twitter, TikTok, Youtube och Facebook har därför rensat bland grupper, sidor och konton kopplade till QAnon.

I mitten av augusti tog Facebook till exempel bort 790 QAnon-grupper, samt införde restriktioner mot ytterligare 1 950 grupper och 440 sidor. Bland annat ska den som söker efter QAnon inte längre rekommenderas liknande grupper, ett system som forskare tidigare kritiserat eftersom det antas bidra till nätanvändares radikalisering och en normalisering av extrema åsikter. 

Deplattformering ett sätt att möta extremism online

En del forskare kallar detta deplattformering: när sociala medieföretag med hänvisning till sina användarvillkor tar bort innehåll eller blockerar grupper, konton eller sidor (Rogers, Clifford & Powell). Andra kallar det borttagning, eller rätt och slätt innehållsmoderering (Ganesh & Bright). 

Angreppsättet har blivit allt vanligare och inget tyder på att trenden kommer vika. Tvärtom har en rad högerextrema terrorattacker satt nytt ljus på frågan. Våren 2019 anslöt sig flera sociala mediejättar och ett 50-tal länder, däribland Sverige, till uppropet ”the Christchurch Call” för att eliminera extremism online, som svar på den terrorattack på Nya Zeeland där 51 människor dödades.

Oönskade konsekvenser?


Samtidigt är deplattformering kontroversiellt och väcker debatt. En farhåga är att högerextremister vinner sympatier när de kastas ut från sociala medier eftersom de kan framställa sig själva som offer för etablissemanget, vilket är i linje med deras retorik sedan tidigare. 


När QAnon-grupper plockades bort i somras var anhängarna inte sena med att se det som ännu ett tecken på att de var något stort på spåren. På samma sätt har högerextrema internetkändisar inte varit sena att ropa censur.

Brittiska organisationen Hope not Hate, som bevakar högerextremism, skriver i sin årsrapport att även om deplattformering är ett mycket effektivt sätt att förhindra tillväxten av högerextremism, så behöver det balanseras mot yttrandefriheten för att förhindra en negativ reaktion från allmänheten..

Institute for Strategic Dialogue (ISD) efterlyser tydliga, begripliga och konsekventa riktlinjer för när techjättarna plockar bort material och inte, bland annat i den här rapporten.

Exakt hur sociala medieföretagen resonerar när de tar bort sidor eller material, samt de gånger de inte agerar, är inte känt. Snarare tycks företagen vilja jobba i det tysta och bristen på transparens är den vanligaste kritiken mot dem överlag, både från forskare och andra röster i debatten. Techjättarna är notoriskt svåra för journalister att kontakta.    

Värre våldsfantasier i mörka vrår?

En annan farhåga handlar om att extremister knuffas mot mörkare vrår online när de deplattformeras. Vrår där insynen är liten och där hat och rasism riskerar att växa okontrollerat; En ostörd, perfekt plats för radikalisering med förnyat våld i dess spår.

Några alternativa plattformar som extremister sökt sig till är Gab, Telegram, BitChute, Discord, Minds, Voat och VK – en utveckling som bland annat beskrivs i Right-Wing Extremists’ Persistent Online Presence: History and Contemporary Trends, ett policy brief från International Centre for Counter-Terrorism. 

Bland de nya plattformarna tycks en särskilt stå ut: Telegram. Den är tidigare känd för att ha varit en fristad för IS, men på senare tid har såväl Hope not Hate som Institute for Strategic Dialogue larmat om hur nätverk av vitmaktgrupper växer fram på Telegram. I nätverken frodas en mycket våldsbejakande och våldsförhärligande kultur och minoriteter demoniseras. Civilsamhället kommer inte mäkta med att hålla ögonen på nätverken, varnar exempelvis Jakob Guhl och Jacob Davey i A Safe Space to Hate: White Supremacist Mobilisation on Telegram.

Samtidigt tycks ISD och Hope not Hate efterlysa mer moderering, inte mindre, och uppmanar bland annat beslutsfattare att uppmärksamma de alternativa plattformarna mer. 

Ytterligare en farhåga handlar om hur besluten fattas om vad som ska tas bort och hur vi ser till att det inte drabbar fel personer, grupper eller innehåll. Den frågan lyfter till exempel forskarna Bharath Ganesh och Jonathan Bright i Countering Extremists on Social Media. När automatiserade lösningar introduceras kräver det kritisk granskning för att säkerställa hur tillförlitlig dessa är. 

Ett bra instrument eller allt för trubbigt?

En återkommande fråga i debatten är: Fungerar deplattformering? Flera forskare har tagit sig an frågan och det går att slå fast att deplattformering gör skillnad på så sätt att extremisters räckvidd minskar väsentligt, vilket bedöms som viktigt. 

Fascistiska gruppen Britain First hade till exempel 1,8 miljoner gillare när de kastades ut från Facebook. Britain First skapade en ny officiell sida på den mindre plattformen Gab, ibland kallad ”Twitter för rasister”. Där hade de ett år senare endast 11 181 följare. Det konstaterar Lella Nouri, Nuria Lorenzo-Dus, and Amy-Louise Watkin i sitt paper Following the Whack-a-Mole: Britain First’s Visual Strategy from Facebook to Gab. Mot bakgrund av det stora följartappet rekommenderar forskarna sociala medieföretag att fortsätta ta bort extremistgrupper som bryter mot användarvillkoren.

Men forskarna noterar också att bilderna Britain First publicerade på Gab var mer extrema än de varit på Facebook. Därför bör beslutsfattare utveckla sina relationer med nyare, mindre och smalare plattformar så att även dessa modererar sitt innehåll, och de sociala mediejättarna bör dela med sig av sina kunskaper för att hantera extremism, metoder och resurser till mindre och nyare plattformar, skriver Nouri, Lorenzo-Dus och Watkin. 

Mindre följarskara, mildare språk

I en annan studie följde forskaren Richard Rogers ett antal högerextrema internetkändisar som sparkats ut från de största plattformarna till nya kanaler och grupper på Telegram. Även här blev tappet av följare stort. 

Däremot blev profilernas språk mindre extremt på Telegram, noterar Rogers. 

På Telegram pekade de högerextrema profilerna trafik mot sina egna sajter, samt mot Twitter och Youtube. Richard Rogers drar därför slutsatsen att trots deplattformering, tycks Twitter och Youtube alltjämt vara relevanta för de högerextrema profiler han studerat. Facebook och Instagram verkade de högerextrema internetkändisarna däremot betrakta som förlorade plattformar.

Det fungerade för Reddit

Redan 2015 stängde internetforumet Reddit ner ett antal trådar som återkommande varit fulla av rasism, fördomar och hat. Två av dessa var r/coontown och r/hatefatpeople – den första full av rasism mot svarta och den andra full av hat mot överviktiga. 

Nedstängningen ledde till att en del användare lämnade Reddit. De som stannade kvar sökte sig till nya trådar där de inte hatade i samma omfattning som tidigare. Metoden fungerade med andra ord för Reddit, konstaterar därför sex forskare som utvärderat åtgärden i studien You Can’t Stay Here: The Efficacy of Reddit’s 2015 Ban Examined Through Hate Speech. Att stänga ner en plats där rasism och hat kom till uttryck gjorde skillnad, utan att för den skull stänga av individer.

Memes, ironi och hundvissling – vad räknas egentligen som hatspråk?

En sak som försvårar arbetet med att bemöta högerextremism online är att miljön inte sällan präglas av antydningar, kodat språk och ironi. Av så kallad hundvissling – att formulera sig på ett sätt som bara de redan invigda uppfattar, såsom en hundvissla bara uppfattas av hundar. 

Dessutom har memes blivit centrala – små kulturbärare, ofta i form av en bild med text eller en animerad gif. Forskaren Claire Wardle skriver att memes är viktiga instrument för spridandet av hat, konspirationer och desinformation, och att det underförstådda budskapet gör dem inflytelserika.

Sammantaget en kultur som inte enkelt låter sig ringas in. 

Att det finns en koppling mellan hatspråk och våld är belagt i forskning, som att avhumaniserande språk bäddar för våld. Men det saknas konsensus om vad hatspråk är. För att identifiera hatspråk krävs kunskap om sammanhanget i vilket något sägs, om det som beskrivs och vem som är avsändare, bland annat.

Forskaren Susan Benesch vid Berkman Klein Center for Internet and Society driver ett projekt om Dangerous Speech. Hon noterar att det finns många sorters skadligt innehåll online, som orsakar olika typer av skada – från känslor av utsatthet till massmord. Därför måste regleringen av innehåll online vara både tydlig och komplex. Även Susan Benesch efterlyser tydligare regler för vad plattformarna godtar och inte, samt en fristående nämnd dit den som vill överklaga ett beslut kan vända sig.

Två samtida exempel på hur dödlig kombinationen hatspråk och sociala medier kan vara är hur ryktesspridning på Whatsapp i Indien ledde till att oskyldiga lynchades, och hur Facebook bidrog till folkmordet på rohingyer i Myanmar. Något företagen själva medgett. 

Känn hur vikingablodet svallar!

”Släpp offerkoftan och känn hur vikingablodet svallar i dina ådror! Vi är svenskar, och länge nog har vi tigande tagit emot skit från etablissemang och främlingar. Sluta med det! Vi organiserar oss, vi förbereder oss, vi slår tillbaka. Kom med oss!”.

Så låter det på Twitter när vit makt–organisationen Det fria Sverige vill locka nya medlemmar. Med inlägget en bild på knutna nävar, logga och texten ”Svensk! Är du beredd att slå tillbaka?”.

Det fria Sverige har konton på Facebook, Twitter och Youtube som de använder i en rad syften. De driver kampanj mot flyktingbostäder i Haninge, gör reklam för koppar och t-shirts med tryck och hälsar ungdomar välkomna till sommarläger med rasideologiske Marcus Follin. Återkommande odlar de myten om att det pågår ett folkmord på vita.

Ett exempel bland många på att det inte är vidare svårt att hitta forum där rasism frodas, trots att techjättarna vässat användarvillkor och vidtagit åtgärder.

Southern Poverty Law Centre har kallat Facebooks strategi för att ta bort grupper som sprider hat på plattformen för ”fläckvis och ineffektiv” och ger exempel på rasistiska grupper som fortsatt finns kvar trots att de anmälts. En kritik som skulle kunna riktas mot fler plattformar.

Lagstiftning eller självreglering?

De sociala mediejättarna har länge strävat efter att själva få reglera sina plattformar, men på senare tid har allt fler länder börjat diskutera ny lagstiftning för att komma till rätta med hat, extremism och terrorism online. Att techjättar visat större intresse för ett förslag om att låta internationella mänskliga rättigheter vara vägledande för deras användarvillkor, verkar inte vara nog för att beslutsfattare ska släppa frågan. I EU föreslås en ny lag med skarpare krav på digitala plattformar – som att de åläggs att plocka bort material som klassas som terrorism inom en timme.

I en podcast från Tech Against Terrorism diskuterar forskarna Evelyn Douek och Daphne Keller utmaningarna med att lagstifta. Frågorna är många och kniviga. Om vi lagstiftar, får vi andra konsekvenser än de vi önskar? Driver vi extremister mot ekokammare och försvårar för rättsväsendet? Hur påverkar det individers yttrandefrihet? Om vi inte lagstiftar, vilka blir konsekvenserna då? Vill vi verkligen ge privata företag rätten att bestämma vem som blir hörd eller inte? Hur ska samarbetet mellan stater och plattformar egentligen se ut?

Evelyn Douek och Daphne Keller konstaterar att behovet av att moderera terrorism och extremism online har satt fart på frågan om att lagstifta. Det handlar inte enbart om att reglera vilket innehåll som får finnas online, utan även om att reglera algoritmer och hur information förstärks och sprids. Bägge efterlyser krav på större transparens från såväl plattformar som stater. Om vad stater har begärt ska tas bort, till exempel.

– Under de kommande 5-10 åren kommer vi att få se olika länder och plattformar experimentera mycket. Och jag tror att vi kommer få se rätt radikala förändringar, säger Evelyn Douek.

– Jag tror att det här blir ett oerhört viktigt årtionde för regleringen av det som sägs online.

Vill du läsa mer om forskning? Alla Faktalabbets texter hittar du här.

KÄLLOR:

Benesch, S. Proposals for Improved Regulation of Harmful Content Online. (2020).

Chandrasekharan E., Pavalanathan U., Srinivasan A., Glynn A., Eisenstein J., and Gilbert E. You Can’t Stay Here: The Efficacy of Reddit’s 2015 Ban Examined Through Hate Speech. Proceedings of the ACM on Human-Computer Interaction. (2017). 

Conway M., Khawaja M., Lakhani S., Reffin J., Robertson A. & Weir D. Disrupting Daesh: Measuring Takedown of Online Terrorist Material and Its Impacts, Studies in Conflict & Terrorism. (2019).

Conway M. Routing the Extreme Right: Challenges for Social Media Platforms. The RUSI Journal. (2020) Vol. 165. No 1.

Conway M., Scrivens R. and McNair L. Right-wing Extremists’ Persistent Online Rresence: History and Contemporary Trends. Policy Report. International Centre for Counter-terrorism. (2019)

Ganesh B. och Bright J. Countering Extremists on Social Media: Challenges for Strategic Communication and Content Moderation. Policy & Internet Journal. (2020) Vol 12, No 1.

Guhl J. and Davey J. A Safe Space to Hate: White Supremacist Mobilisation on Telegram. Brief från Institute for Strategic Dialogue. (2020).

Guhl J., Ebner J. och Rau J. The Online Ecosystem of the German Far-Right
Rapport från Institute for Strategic Dialogue, (2020).

Nouri L., Lorenzo-Dus N. and Watkin A. Following the Whack-a-Mole Britain First’s Visual Strategy from Facebook to Gab. Global Research Network on Terrorism and Technology: Paper No. 4. (2019). RUSI.

Rogers R. Deplatforming: Following extreme Internet celebrities to Telegram and alternative social media. European Journal of Communication. (2020) Vol 35, No 3.

Ur debatten:

Deplatforming works, let’s get on with it - Joe Mulhall

De-platforming and the Online Extremist’s Dilemma – Bennett Clifford och Helen Christy Powell

The Effects of Censoring the Far-Right Online – Ofra Klein
 


Vill du läsa fler texter som den här? Stöd vårt arbete genom att swisha valfritt belopp till 123 2710 259. Tillsammans utmanar vi rasismen!

Annons

Annons

Annons

Annons

Coronakrisen

Hur reagerar extremhögern på coronakrisen? Är pandemin ett hot mot demokratin? Läs alla våra artiklar om coronakrisen här. 

Annons