Algoritmer styr vilka nyheter vi tar del av och därför också vilken bild vi har av verkligheten, samhället och makthavare. Den insikten var utgångspunkten när en paneldiskussion arrangerades hos Sida i veckan, delvis med koppling till en aktuell forskningsrapport om algoritmer och deras påverkan på samhället som Kansliet för strategi- och framtidsfrågor beställt.
"Filterbubblor leder till att vi lever i allt mer typecastade verkligheter. Bristen på insikter om att vårt informationsflöde styrs av algoritmer är ett problem. Vi har lagar och regler för att skydda det offentliga rummet, men hur är det med det digitala rummet? Vad gör vi för att skydda det?” sa statssekreteraren Maja Fjaestad.
Hon tog upp hur normer och värderingar byggs in både avsiktligt och oavsiktligt av den som bygger till exempel infrastruktur. lngenjörer som byggde hus på 50-talet satte en parkeringsnorm med två bilar per hus, vilket påverkade stadsbilden enormt. Det var alltså ett beslut som togs av ingenjörer, inte i samråd med kommun eller invånare.
Vi skulle behöva en offentlighetsprincip eller en rättvisemärkning för algoritmer.
Samma sak gäller algoritmer. Genom hur till exempel Facebook utformar sina algoritmer byggs det också in värderingar och moral i vad vi får se i våra flöden. Facebook är ett amerikanskt företag som agerar på en global arena, samtidigt som deras roll i samhällsutvecklingen och människors liv bara blir större och större i många olika länder, med många olika kulturer, lagar och normer.
"Vi måste gå mot en utveckling där statliga beslutsunderlag baseras på stora datamängder, men med vilka algoritmer? Och vilken maktposition innebär det att skriva de algoritmerna? Vi skulle behöva en offentlighetsprincip eller en rättvisemärkning för algoritmer", sa Maja Fjaestad.
Journalisten Jack Werner tog upp hur våra vanor också påverkar vad vi ser och förstärker redan befintliga strukturer. Det är skillnad på vilken information du får se om du är en 25-årig tjej (tips: fertilitetsreklam) jämfört med om du är en 35-årig man, men ditt eget beteende på nätet styr också mycket av det du ser.
Det är också det här fenomenet, med så kallade filterbubblor, som gör att extremister kan få bekräftelse på sin egen världsbild och uppleva att ”alla” håller med, eftersom algoritmerna hela tiden fyller flödet med liknande innehåll. I sin värsta konsekvens innebär det enligt Jack Werner att fenomenet kan gå från digital folkrörelse till fysisk handling och olika våldsdåd, som tidigare antagligen aldrig genomförts i brist på påhejare från andra extremister, men som nu får fritt spelrum.
Vad ska vi göra åt det här då?
Både Marcin de Kaminski från Sida och Jack Werner pekade på de stora it-jättarnas ansvar som samhällsaktörer. Ett ansvar de än så länge inte är beredda att ta.
Vi är i en situation i samhället där den stora berättelsen är att det inte längre finns en stor berättelse.
"Det svåra med Facebook är att de i all väsentlig mening är publicister men vägrar att kalla sig det. Vi är i en situation i samhället där den stora berättelsen är att det inte längre finns en stor berättelse. Vi litar inte längre på varandra, på institutioner, på journalister…”, sa Jack Werner.
Medieutredningens utredare Anette Novak var på plats i publiken och pekade på att vi tidigare i historien lyckats hantera det här.
"Det här frågorna är lösta en gång i vårt samhället, dock har vi inte lyckats översätta det till det digitala” sa hon.
För vidare läsning rekommenderas Mattias Östmars resonemang kring hur algoritmer kan användas för att styra våra uppfattningar, utifrån en analys av #svpol-taggen på Twitter.