top of page

Algoritmer, oppmerksomhet og demokrati

Hvordan styrer algoritmerene vår oppmerksomhet på problematiske måter? Hvilke utfordringer gir digitale medier for demokratiet?

Algoritmer: Oppmerksomhetsdirektører

Caféer, bibliotek og andre offentlige steder er sosiale møteplasser. En gruppe elever kan for eksempel møtes på den lokale kafeen for å planlegge vårballet. Men, en annen gruppe elever kan møtes der for å planlegge å gjøre hærverk på skolekantinen.

​

Uansett om caféen er brukt som en møteplass for å planlegge begivenheter som beriker eller ødelegger for skolen, så ville vi ikke tenkt at cafeen er ansvarlig for det som er planlagt der. Vi ville antageligvis ikke skyldt på eieren av cafeen for hærverket på skolen, eller tenkt at de skulle ha hindret elevene fra å møtes der for å planlegge. Vi ville kanskje heller ikke tenkt de burde lage regler for hva som kan og ikke kan bli diskutert på caféen. 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

​

 

 

Foto av Brooke Cagle på Unsplash

 

Er sosiale mediaplattformer annerledes? Er Facebook som nabolags caféen, hvor mennesker med forskjellige interesser kan samles på nett og arrangere forskjellige begivenheter? Burde Facebook, som caféeieren være fritatt fra skyld om folk samles på deres plattform for å planlegge et statskupp heller enn et skoleball?


Facebook har faktisk fått skylden for å bli benyttet som forum for koordineringen av stormingen av Capitol i Washington DC den 6. Januar [1]. De har også blitt implisert i folkemordet mot Rohingya folket i Myanmar 2017, for Facebooks rolle i å spre hatefulle diskusjoner og dermed føre til tragisk vold [2-4]. Plattformen har også blitt kritisert for å muliggjøre spredningen av vaksine-desinformasjon under COVID19 pandemien og dermed motarbeide den globale innsatsen for å stoppe viruset [5,6]. (Vi kan også merke oss at mange tenker at sosiale media har vært viktig for gode endringer også, som Twitters rolle i den arabiske våren [7])


Hvis vi tenker at Facebook er som nabolagscafeen, kan vi tenke at den overnevnte kritikken er feilslått. Men, det er også grunner til å tenke at Facebook er annerledes enn nabolags caféen. En viktig forskjell er at Facebook, og andre sosiale medier som X (tidligere Twitter), og Tiktok bruker personaliserte algoritmer som former hvordan (og med hvem) mennesker samles, hvordan informasjon blir gitt til brukeren og hvilken informasjon som blir delt [8]. Disse personaliserte algoritmene ligger i kjernen til forretningsmodellen som teknologiselskapene støtter seg på, slik vi beskrev i modul 2. For å fange og beholde vår oppmerksomhet, sorterer algoritmene informasjon og innlegg for oss, for så å gi oss innhold som mest sannsynlig fengsler vår oppmerksomhet. Noen bekymrer seg for at dette også gir politisk polarisering, ekstremisme, spredning av falske nyheter, og i verste fall tragiske hendelser som beskrevet i starten.


Bekymringen går ut på at Facbook ikke er en nøytral møteplass som den lokale caféen, hvor noen onde planer kan bli klekket ut, men snarere er en struktur som bidrar til mange av de negative holdningene og skadelige tankene som underbygger planene, og også gjør det lettere å gjennomføre dem. (Dette gjelder også for andre sosiale medier som X og TikTok.)


Men, Facebook har stort sett avvist anklagerene mot dem, og hevder at det er enkeltbrukere framfor algoritmen som er hovedårsaken til polarisering, ekstremisme og utbredelsen av desinformasjon [9, 10]. Noe av problemet med å komme til enighet om betydningen av algoritmene skyldes en manglende forståelse av nøyaktig hvordan algoritmene fungerer. Facebook og andre sosiale medier vokter denne informasjonen nøye [11]. Dette hemmeligholdet kan i seg selv sies å være et moralsk problem. Siden disse algoritmene påvirker oss så mye, kan man argumentere for at vi har en rett til å vite nøyaktig hvordan de fungerer. Dette hemmeligholdet kan endre seg med introduksjonen av nye reguleringer (som den Europeiske Digitale service act [12]) som krever større gjennomsiktighet om hvordan algoritmene til teknologiselskaper fungerer.

​

La oss nå se nøyere på hvordan møteplasser på nett kan være annerledes fra nøytrale møteplasser som den nevnte caféen.

Students sitting at table in coffee shop

Filterbobler og ekkokammer

Personaliserte algoritmer velger ut informasjon som vil fange oppmerksomheten til brukerne. For eksempel, hvis John liker å gå tur, så vil John se turutstyr. Hvis Nadine er skeptisk til vaksiner vil hun bli vist mer informasjon med vaksineskeptisk innhold. I disse tilfellene viser algoritmene brukeren informasjon som mest sannsynlig vil fange deres oppmerksomhet og glemmer resten. John og Nadine vil se veldig forskjellige ting online, selv om de sitter sammen, på samme café.

​

​

​

​

​

​

​

​

 

 

 

 

 

 

 

​

 

Foto av Yitzhak Rodriguez på Unsplash

​

Denne måten å filtrere ut informasjon som ikke fanger brukerens oppmerksomhet skaper noe vi kaller filterbobler [13]. Ifølge Eli Pariser (som introduserte begrepet) er en filterboble “et personlig økosystem av informasjon som er blitt utvalgt av disse algoritmene” [oversettelse, 14].


Noen bekymrer seg for om slike filterbobler fører til mindre meningsmangfold, og øker polarisering eller i verste fall bidrar til ekstremisme [15-17]. Når individer kun blir vist synspunkt som sammenfaller med sine egne, er man redd for at alle de eksisterende synspunktene vil forsterkes til det ekstreme. Noen som allerede har noen anti-vaxxer synspunkt vil få forsterket disse siden de kun støter på meninger som ligner sine egne.

​

Noen bekymrer seg for at algoritmene brukt på nettet fører til ekkokammere. Et ekkokammer er et “bundet, avgrenset medierom som har potensiale til å både forstørre meldinger i det, og isolere meldingene fra motbevis” [oversettelse, 18, s176]. Ekkokammere karakteriseres ved mistillit og aktive forsøk på å undergrave motstående synspunkt. I likhet som i tilfelle filterbobler er noen vanlige bekymringer rundt ekkokammere at de øker polariseringer og dirver individer til å innta mer ekstreme standpunkt [19-22].

 

Til tross for at bekymringene rundt fenomenene ligner er filterbobler og ekkokammer forskjellige av natur, og krever antageligvis dermed forskjellige løsninger [23]. Når man er i en filterboble er man rett og slett ikke eksponert for andre synspunkt enn ens eget. Noen mener da at Filterbobler kan sprekke ved å eksponere individer for et større informasjonsmangfold. Men man kan argumentere for at et ekkokammer er vanskeligere å unnslippe. Det er fordi i et ekkokammer er det ofte mistillit til og forsøk på å avfeie synspunkter som er forskjellig fra sitt eget. [18,23]. Ekkokammeret har blitt beskrevet som noe nærmere en kult [23]. Begge isolerer medlemmene sine, og utenforstående er aktivt omtalt som upålitelige [18,23]. Dermed er det ikke nok å vise frem annen informasjon, man må også reparere tillitten til denne informasjonen.

 

Filterbobler, ekkokammer og demokrati

Der er noen interessante filosofiske spørsmål vi kan stille om hvordan filter bobler og ekkokammer (i tillegg til algoritmene som skaper dem) påvirker demokratiet.

​

Et spørsmål er hva som er galt med polarisering. La oss anta at sosiale mediaplattformer i hvert fall bidrar til (om ikke skaper) polarisering. Hva er problemet med dette?


Mange tenker at polarisering hindrer demokratiet i å fungere godt [24]. Demokratiet er karakterisert av folkestyre. Individer er sett på som like borgere med lik makt til å utrykke sin menig om ting som er av politisk betydning. I noen forståelser av demokrati er offentlig diskusjon (deliberasjon) av nøkkeltemaer av samfunnsbetydning en viktig del av prosessen [25-28]. I deliberativ demokratiteori foreslår man ofte borgermøter hvor et bredt spekter av borgere møtes for å diskutere viktige saker [28]. Denne prosessen gir legitimitet til avgjørelsen som blir tatt, ettersom de er et samsvar mellom hvem som tar avgjørelsene, og hvem som er påvirket av dem.


Denne formen for politisk deltagelse blir vanskelig når gruppene er dypt polariserte. Individer kan da være lite villig til å samhandle med andre grupper [29,30], de kan også ha problemer med å se på andre som likeverdige [24], og der de samhandler, kan det være usannsynlig at de kommer frem til et kompromiss [31].

​

Et annet og relatert spørsmål er i hvilken grad filtreringen av informasjon gjort av algoritmer hindrer demokratiet fra å utfylle en viktig funksjon av kollektiv kunnskaps-skapning [32]. I dette synet er en av demokratiets rolle å sette sammen informasjon fra en mangfoldig befolkning med varierende grad av ekspertise på forskjellige temaer som er relevant for samfunnet. Borgere har forskjellig og mangfoldig kunnskap om forskjellige politiske temaer. Demokratiske prosedyrer hjelper med å samle denne kunnskapen på en måte som er nyttig og til samfunnets beste. Men når individer blir fanget i informasjonsbobler, vil hver boble være isolert fra kunnskapen de andre gruppene sitter på. Individer i disse boblene kan også være sårbare for manipulasjon innenfra, som fra aktører - propagandister- som ønsker å forvrenge informasjon for egen politisk vinning [33].

Hvor utbredt er filterbobler og Ekkokammer?

Til tross for bekymringer fra beslutningstakere, akademikere, og den generelle befolkningen, er det uenighet om den reelle utredningen av filterbobler og ekkokammere. I tillegg er det uenighet om hvor skadelige deres konsekvenser er. Noen bekymrer seg for at oppmerksomheten rundt filterbobler og ekkokammeret avleder oppmerksomhet fra mer akutte saker, som spredningen av desinformasjon på nett [34] (Dette vil vi diskutere i neste seksjon).

Det er evidens som peker i retning av at effektene av filterbobler og ekkokammer kan være overvurdert [35, 36], For eksempel, så viser noe forskning at sosiale media brukere har en mer mangfoldig mediebruk enn andre brukere, som indikerer at filterbobler og ekkokammeret ikke har isolert informasjon fra brukere i så stor grad som noen har trodd [37]. Det er også forskning som antyder at når mennesker er eksponert for motstående synspunkt så forsterker det deres egen posisjon, istedenfor å gjøre den mer moderat [38]. Dette gir grunn til å tvile på påstanden om at mangel på andre meninger gir polarisering (eller at iallfall eksponering til andre perspektiver reduserer polarisering). Faktisk kan det motsatte noen ganger være tilfelle.

​

Det er også evidens som antyder at ekkokammer ikke er så utbredt som mange har antatt siden bare 4% av leserne av nyheter på nett deltar i ekkokammer [39, 40]. På den andre siden, selv om antallet av individer som bruker ekkokammer kan være relativt få, så er slike individer ofte mer politisk aktive enn resten av befolkningen, og kan dermed ha stor påvirkning på samfunnet og som eksemplene innledningsvis viser, forferdelige konsekvenser [41].

coffee filter with coffee dripping through

Refleksjonsoppgaver

  1. Anta at vi sitter in en café og leser forskjellige papiraviser (istedenfor å lese nettaviser), som har trykket forskjellige nyheter og reklamekampanjer. Er konsekvensene av å få forskjellig innhold på papiravisen det samme som å få det på nett?
     

  2. Det er en overflod av informasjon på nettet. Til hvilken grad tror du at personaliserte algoritmer er nyttige verktøy for å hjelpe oss navigere dette?
     

  3. Hvor polarisert synes du samfunnet er? Til hvilken grad tror du denne polariseringen kommer av isolasjon fra andre synspunkt?
     

  4. Hva tror du er noe av de viktigste egenskapene og funksjonene til demokratiet? I hvilken grad truer filterbobler og ekkokammer disse?

Hat og løgn

Filterbobler og ekkokammer er begreper for bekymringer over måten informasjonen er gitt til brukeren. Hvor de finnes så gjør de møteplasser på nett annerledes enn nøytrale møteplasser som cafeen vi nevnte i starten. Men dette er ikke den eneste måten disse møterommene er forskjellige fra caféer eller lignende steder, De kan også være ulike med tanke på det spesifikke innholdet som er gitt til de som samles i dem.

​

Det er ofte algoritmenes tendens til å spre splittende og betent innhold som er grunnen til bekymringer. Det er for eksempel bevis som peker i retning at hatefullt innhold spres fortere på nett en annet type innhold [42]. Bekymringen er at for å holde folk engasjert så gir algoritmene dem mer og mer oppmerksomhets-gripende innhold. Og siden folk er mer oppmerksomme på innhold som fører til raseri og harme så vil algoritmene fortsette å gi dem slikt innhold [43].


Det finnes også bekymringer rundt bruken av algoritmer og deres rolle i å spre desinformasjon [44]. Facebook har blitt møtt med betydelig kritikk for deres rolle i dette. Forskning antyder at folk blir oftere fengselet av og deler falske historier enn sanne historier [45]. Dette, har noen bekymret seg for, kan incentivere algoritmene til å vise slikt innhold, og dermed øke mengden av falsk informasjon folk er eksponert for, og dermed potensielt bli påvirket av.


Hvis falskt og betent innhold er favorisert av algoritmene en nettside bruker, så er den forskjellig fra en nøytral møteplass på en viktig måte. Nettsidens design vil virke å være spesielt tiltrekkende og imøtekommende for de som kommer for å spre hat og løgner, og implisitt oppmuntre til en bestemt form for bruk av rommet det gir.

​

Man kan argumentere for det å tro på ting som ikke er sanne er dårlig for oss. Hvis vi tror at hva vi tror på fungerer som et kart til virkeligheten, ønsker vi oss et nøyaktig og presist kart. Dette krever at det vi tror på er sant. Det å tro på desinformasjon kan også påvirke individers valg negativt. En person som tror på farlige konspirasjonsteorier, kan ende opp med å skade seg selv og andre.

​

Denne spredningen av slikt innhold på nett har mulige skadelige konsekvenser. Det å tro på falsk informasjon kan påvirke individers valg negativt. For eksempel så kan det å tro at COVID-19 er funnet opp, eller at vaksiner vil endre ens DNA sekvens ende med at en person vil nekte å la seg vaksinere.
 

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

Foto av Zoe VandeWater på Unsplash

​

Falskheter og betent innhold kan også være utfordrende for demokratisk engasjement. Som vi så i tilfelle polarisering så vil konstant hatefull informasjon gjøre det vanskelig å samhandle med den andre siden. Når hver av oss får forskjellig informasjon, eller noe av informasjonen er falsk, så mister vi en felles plattform. Det blir da vanskelig å demokratisk engasjere seg i de de viktige sakene, som klimaendringer, folkehelse og rettferdighet i samfunnet.
 

Å overvinne polarisering, ekstremisme og falsk informasjon

En mulig løsning for noen av bekymringene vi har diskutert så langt er å begrense hva slags informasjon som kan bli delt på nett. Mens Facebook lenge har vært talsmenn for ytringsfrihet, har selskapet introdusert noen retningslinjer for å begrense spredningen av dette innholdet. For eksempel, så har de nylig oppdatert sin hatprat retningslinjer ved å forby informasjon som forvrenger historien om Holocaust [46]. De har også begynt å merke villedende informasjon, fjerne poster og fjerne kontoene som sprer denne informasjonen [47,48]. Myndigheter har også tatt tak i problemet ved å lage lovverk som forbyr falske nyheter [49, 50].

​

Kritikerne sier at dette er urettmessig sensur, og at det truer ytringsfriheten [51]. En av de mest kjente forkjemperne for ytringsfriheten var filosofen John Stuart Mill son levde på 1800- tallet [52]. Mill tenkte at det eneste rettmessige begrensingen på individets frihet - inkludert ytringsfrihet - var å beskytte andre fra direkte og betydelig skade.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Foto av Volodymyr Hryshchenko på Unsplash

 

Mill tenkte at mye av det folk sa kunne være støtende, men så lenge det  var skadelig burde det tillates. Et unntak fra dette ville være om det man sier oppfordre til vold. Mill tenkte at det å f.eks. rope “Mark Zuckerberg er en tyv” i front av oppildnet folkemengde kunne oppfordre til vold, og dermed forsvarlig forhindres. Men det å utrykke den samme meningen ved å skrive det i avisen, kunne ikke forsvarlig forhindres.
 

Å forsvare ytringsfrihet

Det var to hoved argumenter for hvorfor Mill tenke at ytringsfrihet skulle ha bred beskyttelse. Den første er at friheten til å utrykke ideer ville hjelpe for å oppnå sann tro. Jo flere ideer som er tilgjengelig for oss å ta i betraktning, dess mer sannsynlig at vi ender opp med sannheten.
 

Det andre argumentet appellerer mer til viktigheten av en åpen dialog om hva vi tenker er sant, og det å forsvare mot dogmatisme. Dogmatisme er å ta visse påstander som sanne uten å undersøke dem nok. Som Mill sier:

 

«Selv om man ikke er villig til å innrømme muligheten av at noen av ens menigheter kan være falske, burde det bringe en til ettertanke når man blir minnet om at en mening kan være så sann den vil, men blir den ikke gjennomdiskutert ofte og fryktløst, vil den snart opphøre å være en levende sannhet og stivne til et dødt dogme [52, p.44].»

​

Dette betyr at selv om en person har sterke meninger om et tema, så burde de innse at de noen ganger kan ta feil, og at selv sanne meninger tjener på en livlig debatt og diskusjon, siden det vil gi oss riktig grunn til å tro på dem.
 

Mill tenkte at alle ideer, uansett hvor hatefulle og obskøne, burde være tillatt og utrykkes, med mindre de skadet andre. De kunne være støtende, men generelt ikke skadelige, og kunne bli satt opp mot andre ideer. En del av den demokratiske prosessen er nettopp utveskling av ideer. Og Mill tenkte at så lenge folket sturte så skulle ingen informasjon som er relevant for å ta politiske avgjørelser vært holdt unna dem.

​

Vi kan spørre oss om Mills argument er utdatert i dag. Vi er oversvømt med informasjon. Algoritmer på nett sorterer antageligvis for hatefullt og falsk informasjon og øker polarisering. Det er ikke slik at all er villige til å bli med i en rimelig og rasjonell dialog. Som vi har sett har vi også gjort oss sårbare for distraksjoner i oppmerksomhetsøkonomien, og dette begrenser vår mulighet til å delta i aktiviteter som krever fokus og oppmerksomhet over lengre tid, som kritisk refleksjon og en åpen dialog om politiske ideer. Mill trodde at en fri utveskling av ideer ville føre til at de best idéene ble valgt. I dagens omgivelser er det grunn til å tro at det ikke er sant. Faktisk er det bevis som peker på at argumenter ikke er effektive måter å endre folks oppfatninger på [53, 54].

​

Disse betraktningene antyder at noen reguleringer om ytringer på nett kan være berettiget. Å sensurere noen meninger en én mulig løsning, men ikke den eneste muligheten. Det er også mindre inngrep som tar sikte på en balanse mellom å beskytte folk fra skadelig desinformasjon og beskytte ytringsfriheten. Dette kan være å merke villedende informasjon, og designe algoritmer på en måte som nedprioriterer innhold som kan være en trussel for demokratiet [55, s. 17-18].

 

Når dette er sagt, så kan man lure seg til hvilken utstrekning det å gi makt til å regulere individuell utrykk til private selskaper som Facebook og X er kompatibelt med demokrati. Dette vil gi et lite antall mennesker veldig mye makt. På den andre siden argumenterer noen for at sosiale media selskap har egne plikter til å regulere deres møteplasser på nett, for å beskytte borgerens rett på sann og presis informasjon, og for å beskytte mot skade [56].

​

Hvis en gruppe mennesker i en café tok del i en aktivitet som gjorde det umulig for andre å nyte sin kaffe (eller være aktiv skadet andre cafébesøkende), vi ville kanskje tenkt at eieren av caféen burde begrense slike handlinger. På samme måte så kan vi foreslå at sosiale medieselskap har egne forpliktelser til å regulere deres plattformer for å beskytte rettighetene til andre som også er på disse plattformene.

​

speech bubble
Protesters carrying signs

Refleksjonsoppgaver

  1. Hva telles som skadelige ytringer? Tenker du f.eks. at å fornekte Holocaust teller som skadelige ytringer, eller kun støtende?
     

  2. Tenker du at det er viktig å ha sann tro? Hvorfor/ hvorfor ikke? Er du enig at jo mer meninger som er utrykt jo større sjanse er det for at vi ender med sann tro? Hva med meninger hvor det er klart og overbevisende bevis på at de er falske - som linken mellom vaksiner og autisme? Gjør ytringer av slike påstander oss sikrere på at vi ender opp med sann tro?
     

  3. Hvis du tror at noen ytringer kan bli begrenset på nett, hvem skal ha makten til å gjøre det? Tenker du at det er noe problematisk med at private selskaper som Facebook og Twitter kan bestemme hva vi kan og ikke kan si på nett?
     

  4. Hva tenker du er de største utfordringene for demokratiet oppmerksomøkonomien er årsak til? Prøv å tenke på måter digital teknologi kan brukes godt til demokratiets fortjeneste

Referanser

[1] Levine, A.S. (2021 Oct 25). Inside Facebook’s struggle to contain insurrectionists’ posts. Politico. https://www.politico.com/news/2021/10/25/facebook-jan-6-election-claims-516997/.

 

[2] Timberg, C., Dwoskin, E., and Albergotti, R. (2021 Oct 22). How Facebook played a role in the Jan. 6 Capitol riot. The Washington Post. https://www.washingtonpost.com/technology/2021/10/22/jan-6-capitol-riot-facebook/.

 

[3] Mozur, P. (2018 Oct 15). A genocide incited on Facebook, with posts from Myanmar’s military. The New York Times. https://www.nytimes.com/2018/10/15/technology/myanmar-facebook-genocide.html

 

[4] Stevenson, A. (2018 Nov 6). Facebook admits it was used to incite violence in Myanmar. The New York Times. 6 November 2018. https://www.nytimes.com/2018/11/06/technology/myanmar-facebook.html

 

[5] Broniatowski, D. A., Simons, J. R., Gu, J., Jamison, A. M., & Abroms, L. C. (2023). The efficacy of Facebook’s vaccine misinformation policies and architecture during the COVID-19 pandemic. Science Advances, 9(37), eadh2132.

 

[6] Milmo, D. (2021 Nov 2). Facebook failing to protect users from Covid misinformation, says monitor. The Guardian. https://www.theguardian.com/technology/2021/nov/02/facebook-failing-to-protect-users-from-covid-misinformation-says-monitor.

 

[7] Wikipedia contributors. (2023, October 25). Social media and the Arab Spring. In Wikipedia, The Free Encyclopedia. Retrieved 09:09, October 26, 2023, from https://en.wikipedia.org/w/index.php?title=Social_media_and_the_Arab_Spring&oldid=1181801041


[8] Bozdag, E. (2013). Bias in algorithmic filtering and personalization. Ethics and Information Technology, 15, 209-227.
 

[9] Bond, S. (2021 April 1). Facebook disputes claims it fuels polarization and extremism. NPR. https://www.npr.org/2021/04/01/983155583/facebook-disputes-claims-it-fuels-political-polarization-and-extremism#:~:text=Jenny%20Kane%2FAP-,Facebook%20is%20stepping%20up%20its%20defenses,its%20algorithms%20favor%20inflammatory%20content.&text=Facebook%20is%20making%20changes%20to,fuels%20extremism%20and%20political%20polarization.

 

[10] Clegg, N. (2021 March 31). You and the algorithm: it takes two to tango. Medium. https://nickclegg.medium.com/you-and-the-algorithm-it-takes-two-to-tango-7722b19aa1c2
 

[11] Krass, P. (n.d.). Transparency: the first step to fixing social media. MIT Initiative on the Digital Economy. https://ide.mit.edu/insights/transparency-the-first-step-to-fixing-social-media/

 

[12] European Comission. The Digital Services Act package. https://www.europarl.europa.eu/news/en/headlines/society/20211209STO19124/eu-digital-markets-act-and-digital-services-act-explained?&at_campaign=20234-Digital&at_medium=Google_Ads&at_platform=Search&at_creation=RSA&at_goal=TR_G&at_audience=digital%20services%20act&at_topic=DMA_DSA&at_location=DE&gclid=Cj0KCQjw7JOpBhCfARIsAL3bobfQRaZqupRV5BxbcKcGjBltr1BYXb1W58ktnXtgQxdvXv5XuAoKFAUaAg4uEALw_wcB
 

[13] Pariser, E. (2011). The filter bubble: what the internet is hiding from you. London: Penguin.
 

[14] Parramore, L. (2010 October 10). "The filter bubble". The Atlantic.  https://www.theatlantic.com/daily-dish/archive/2010/10/the-filter-bubble/181427/.

 

[15] Sunstein, C. R. (1999). The law of group polarization. University of Chicago Law School, John M. Olin Law & Economics Working Paper, (91).

 

[16] Sunstein, C. R. (2001). Republic.com. Princeton university press.

 

[17] Sunstein, C. (2018). # Republic: Divided democracy in the age of social media. Princeton university press.
 

[18] Jamieson, K. H., & Cappella, J. N. (2008). Echo chamber: Rush Limbaugh and the conservative media establishment. Oxford University Press.

​

[19] Sunstein, C. R. (2009). Going to extremes: How like minds unite and divide. Oxford University Press.

 

[20] Wu, K.J. (2019 March 28). Radical ideas spread through social media. Are algorithms to blame? PBS. https://www.pbs.org/wgbh/nova/article/radical-ideas-social-media-algorithms/

 

[21] Stevens, T. and Neumann, P.R. (2009). Countering online radicalisation: A strategy for action. https://icsr.info/wp-content/uploads/2010/03/ICSR-Report-The-Challenge-of-Online-Radicalisation-A-Strategy-for-Action.pdf

 

[22] Von Behr, I., et al. (2013). “Radicalisation in the Digital Era.” RAND Europe. https://www.rand.org/content/dam/rand/pubs/research_reports/RR400/RR453/RAND_RR453.pdf


[23] Nguyen, C. T. (2020). Echo chambers and epistemic bubbles. Episteme, 17(2), 141-161.

 

[24] Talisse, R. B. (2021). Sustaining democracy: what we owe to the other side. Oxford University Press.

 

[25] Elster, J. (Ed.). (1998). Deliberative democracy (Vol. 1). Cambridge University Press.
 

[26] Habermas, J. (2015). Between facts and norms: Contributions to a discourse theory of law and democracy. John Wiley & Sons.

 

[27] Cohen, J. (1996). “Procedure and substance in deliberative democracy”, in Democracy and Difference: Contesting the Boundaries of the Political, Seyla Benhabib (ed.), Princeton: Princeton University Press, 95–119.

 

[28] Landemore, H. (2020). Open democracy: Reinventing popular rule for the twenty-first century. Princeton University Press.

 

[29] Frimer, J. A., Skitka, L. J., & Motyl, M. (2017). Liberals and conservatives are similarly motivated to avoid exposure to one another’s opinions. Journal of Experimental Social Psychology, 72, 1–12.

 

[30] Mason, L. (2018). Uncivil agreement: How politics became our identity. University of Chicago Press.

​

[31] Pew Research Center. (2014 June 12). Report: Political polarization in the American public. Section 4: Political compromise and divisive policy debates. https://www.pewresearch.org/politics/2014/06/12/section-4-political-compromise-and-divisive-policy-debates/.

​

[32] Anderson, E. (2006). The epistemology of democracy. Episteme, 3(1-2), 8-22.
 

[33] Anderson, E. (2021). Epistemic bubbles and authoritarian politics. Political epistemology, 11-30.
 

[34] Garrett, R. K. (2017). The “echo chamber” distraction: Disinformation campaigns are the problem, not audience fragmentation. Journal of Applied Research in Memory and Cognition, 6(4), 370–376. https://doi.org/10.1016/j.jarmac.2017.09.011.

 

[35] Whittaker, J. & Looney, S. & Reed, A. & Votta, F. (2021). Recommender systems and the amplification of extremist content. Internet Policy Review, 10(2). https://doi.org/10.14763/2021.2.1565.

​

[36] O'Hara, K., & Stevens, D. (2015). Echo chambers and online radicalism: Assessing the Internet's complicity in violent extremism. Policy & Internet, 7(4), 401-422.
 

[37] Dubois, E., & Blank, G. (2018). The echo chamber is overstated: the moderating effect of political interest and diverse media. Information, Communication & Society, 21(5), 729-745.
 

[38] Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. F., ... & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216-9221.
 

[39] Muise, D., Hosseinmardi, H., Howland, B., Mobius, M., Rothschild, D., & Watts, D. J. (2022). Quantifying partisan news diets in Web and TV audiences. Science Advances, 8(28), eabn0083.

 

[40] Fletcher, R., Robertson, C. T., & Nielsen, R. K. (2021). How many people live in politically partisan online news echo chambers in different countries?. Journal of Quantitative Description: Digital Media,  https://doi.org/10.51685/jqd.2021.020.
 

[41] Benson,T. (2023 Jan 20). The small but mighty danger of echo chamber extremism. Wired. https://www.wired.com/story/media-echo-chamber-extremism/
 

[42] Bellovary, A. K., Young, N. A., & Goldenberg, A. (2021). Left-and right-leaning news organizations use negative emotional content and elicit user engagement similarly. Affective Science, 2, 391-396.
 

[43] Rose-Stockwell, T. (2023). Outrage machine: How tech amplifies discontent, disrupts democracy—And what we can do about it. Legacy Lit..
 

[44]  Brown, É. (2021). Regulating the spread of online misinformation. In M. Hannon, M., & J. de Ridder (Eds.) The Routledge handbook of political epistemology (pp. 214-225). Routledge.
 

[45] Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146-1151.
 

[46] Reuters. (2020 Oct 12). Facebook to ban content that denies or distorts the Holocaust. The Guardian.  https://www.theguardian.com/technology/2020/oct/12/facebook-to-ban-content-that-denies-or-distorts-the-holocaust
 

[47] Mosseri, A. (2017 April 7). Working to stop misinformation and false news. Meta. https://www.facebook.com/formedia/blog/working-to-stop-misinformation-and-false-news

 

[48] Holzberg, M. (2021 Mar 22). Facebook banned 1.3 billion accounts over three months to combat “fake” and “harmful” content. Forbes. https://www.forbes.com/sites/melissaholzberg/2021/03/22/facebook-banned-13-billion-accounts-over-three-months-to-combat-fake-and-harmful-content/?sh=a80b00a52150

 

[49] International Press Institute. (2020 Oct 3). Rush to pass ‘fake news’ laws during Covid-19 intensifying global media freedom challenges. https://ipi.media/rush-to-pass-fake-news-laws-during-covid-19-intensifying-global-media-freedom-challenges/

 

[50] POFMA Office. Singapore Government. (n.d.). Protection from online falsehoods and manipulation act. https://www.pofmaoffice.gov.sg/regulations/protection-from-online-falsehoods-and-manipulation-act/
 

[51] Pomeranz, J. L., & Schwid, A. R. (2021). Governmental actions to address COVID-19 misinformation. Journal of Public Health Policy, 42, 201-210.

 

[52] Mill, J.S. (2010 [1859])  Om Friheten (Pål Foss, Trans.). Vidarforlaget.

​

[53] Gordon-Smith, E. (2019). Stop being reasonable: how we really change our minds. PublicAffairs.

​

[54] McIntyre, L. (2021). How to talk to a science denier: conversations with flat earthers, climate deniers, and others who defy reason. MIT Press.

​

[55] Sunstein, C. R. (2021). Liars: Falsehoods and free speech in an age of deception. Oxford University Press.
 

[56] Smith, L., & Niker, F. (2021). What social media facilitates, social media should regulate: Duties in the new public sphere. The Political Quarterly, 92(4), 613-620.

bottom of page