Etiskt hållbar AI för nyanserade nyhetsflöden

dc.contributor.authorAlbinsson, Louise
dc.contributor.authorBerthag, Elin
dc.contributor.authorIlosson, Lukas
dc.contributor.authorJakobsson, Klara
dc.contributor.authorJohansson, Viktor
dc.contributor.authorWadman, Kerstin
dc.contributor.departmentChalmers tekniska högskola / Institutionen för teknikens ekonomi och organisationsv
dc.contributor.examinerBohlin, Erik
dc.contributor.supervisorOstrowska, Alicja
dc.date.accessioned2021-09-07T10:21:41Z
dc.date.available2021-09-07T10:21:41Z
dc.date.issued2021sv
dc.date.submitted2020
dc.description.abstractIdag utgörs största delen av människors nyhetskonsumtion av att ta till sig nyheter och information via digitala medier. Nyhetsflöden på plattformar som använder sig av maskininlärningsalgoritmer för att filtrera läsarens flöde är källor för information trots att de inte visar hela bilden för läsaren, utan endast det som är av läsarens intresse för att hålla kvar dennes uppmärksamhet. Filtreringen medför många problem då läsaren endast möts av information som stödjer dennes världsbild och åsikt. Detta skapar polarisering och bidrar till en ökad spridning av missinformation i samhället. Studien syftar till att kartlägga de problem som uppstår på grund av digitala nyhetsflöden och dess bakomliggande algoritmer. Vidare syftar studien även till att förstå hur samma teknik kan används på ett mer etisk hållbart sätt. En kvalitativ studie bestående av litteraturfördjupning, kvalitativa intervjuer samt en fallstudie av Improvethenews.org, en webbsida som använder ett alternativt angreppsätt för att presentera nyheter med hjälp av maskininlärningsalgoritmer, genomfördes. Vidare gjordes en analys där de olika delarna av studien kopplades samman för att tillsammans besvara studiens frågeställningar. Studiens slutsats är att problemen som uppstår på grund av digitala nyhetsflöden går att dela upp i mänskliga samt tekniska. De mänskliga problemen innefattar faktorer som är svåra att eliminera och därav lades större vikt vid de tekniska problemen. Ett märkbart tekniskt problem är att människor inte förstår hur tekniken bakom algoritmerna fungerar. Detta bidrar till minskad medvetenhet i hur individanpassat flödet är och ökar risken för polarisering i samhället. Ett ytterligare problem är gällande vem som bär ansvar för att förse läsarna med nyanserad information. Det går inte att hålla läsaren ansvarig och därmed bär utvecklarna av algoritmerna samt nyhetskanalerna ansvar för att följa etiska riktlinjer och förse läsarna med tillräcklig information för att de ska förstå hur algoritmerna påverkar deras nyhetskonsumtion. Författargruppen har sammanställt riktlinjer för etiska ramverk för maskininlärningsalgoritmer som finns under avsnitt 7.2.9. Förutsättningarna för att maskininlärning ska kunna användas på ett etiskt försvarbart sätt vid nyhetskonsumtion är goda om teknikföretagen är villiga att samarbeta för att ta fram system som uppfyller de etiska riktlinjer och krav som tas upp i ramverket, se 7.2.9. Genom ökad transparens och ansvarstagande hos företagen bakom algoritmerna tas ett steg mot ett mer nyanserat samhälle.sv
dc.identifier.coursecodeTEKX04sv
dc.identifier.urihttps://hdl.handle.net/20.500.12380/304071
dc.language.isoswesv
dc.relation.ispartofseriesTEKX04-21-21sv
dc.setspec.uppsokTechnology
dc.subjectnyhetsfiltreringsv
dc.subjectmaskininlärningsalgoritmersv
dc.subjectetiska ramverksv
dc.subjectnyanserad nyhetskonsumtionsv
dc.titleEtiskt hållbar AI för nyanserade nyhetsflödensv
dc.type.degreeExamensarbete på kandidatnivåsv
dc.type.uppsokM2
Ladda ner
Original bundle
Visar 1 - 1 av 1
Hämtar...
Bild (thumbnail)
Namn:
TEKX04-21-21.pdf
Storlek:
1.25 MB
Format:
Adobe Portable Document Format
Beskrivning:
License bundle
Visar 1 - 1 av 1
Hämtar...
Bild (thumbnail)
Namn:
license.txt
Storlek:
1.51 KB
Format:
Item-specific license agreed upon to submission
Beskrivning: