Djupdykning med djupinlärning Artificiella neuronnät jämförda med addback-algoritmen för detektorrekonstruktion av γ-fotoner

dc.contributor.authorJUHLIN ONBECK, ALFRED
dc.contributor.authorJOHANSSON, BJÖRN
dc.contributor.authorSHAFIQ AHLGREN, GABRIEL
dc.contributor.authorTEPP, ISABELLA
dc.contributor.departmentChalmers tekniska högskola / Institutionen för fysiksv
dc.contributor.departmentChalmers University of Technology / Department of Physicsen
dc.contributor.examinerSwenson, Jan
dc.contributor.supervisorT Johansson, Håkan
dc.date.accessioned2022-11-22T11:52:55Z
dc.date.available2022-11-22T11:52:55Z
dc.date.issued2022
dc.date.submitted2020
dc.description.abstractTolkning av detektordata kan vara invecklat och är inte alltid entydigt. Hur γ-fotoner in teragerar med materia skiljer sig från hur laddade partiklar gör det. Spridningar av olika slag gör att detektion av fotoner blir komplex, i synnerhet att karaktärisera varje indivi duell foton, och inte bara den totala deponerade energin. För att urskilja multipliciteten, energin och riktningen hos γ-fotoner krävs detaljerad rekonstruktion av detektordata. Denna studie är en vidareutveckling av tidigare kandidatarbeten med målet att utveck la artificiella neuronnät som överträffar dagens konventionella rekonstruktionsalgoritm, addback. Olika typer av neuronnät har undersökts där deras strukturer och hyperpara metrar varierats och utöver detta har också residualnätverket ResNeXt implementerats. Alla nätverk har tränats på data som är simulerad med hjälp av GEANT4, ggland och ROOT. Datan efterliknar verkliga mätningar av isotropiska γ-fotoner med Darmstadt Heidelberg-kristallbollen. Att träna artificiella neuronnät är en iterativ process. För alla resultat som visas har flera körningar gjorts för samma datapunkt för att verifiera att resultaten är reproducerbara och inte bara slumpmässiga eller lyckosamma. Träningen kan sedan upprepas med varierande parametrar för att optimera dem. Detta multiparameterproblem är en av anledningarna till varför träningen av artificiella neuronnät är väldigt komplex. Prestandautvärderingen är utformad så att resultaten kan jämföras med addback. Med hjälp av detta har mer detaljerade studier gjorts angående om det finns skillnader i hur väl de olika metoderna rekonstruerar för olika typer av händelser. Neuronnäten som tränats i detta arbeta överträffar de från tidigare arbeten. För de ener giintervall som neuronnäten är tränade på, 0,1 MeV − 10 MeV, presterar de även bättre än addback. Alla de tre typer av nätverk som optimerats, fullt kopplade nätverk (FCN), faltande nätverk (CNN) och ResNeXt, hade lägre fel än addback när de tränats på data i detta intervall. För andra intervall, 0,1 MeV − 15 MeV, som nätverken inte var tränade för presterar addback fortfarande bättre.
dc.identifier.coursecodeTIFX04
dc.identifier.urihttps://odr.chalmers.se/handle/20.500.12380/305818
dc.language.isoswe
dc.setspec.uppsokPhysicsChemistryMaths
dc.titleDjupdykning med djupinlärning Artificiella neuronnät jämförda med addback-algoritmen för detektorrekonstruktion av γ-fotoner
dc.type.degreeExamensarbete för kandidatexamensv
dc.type.degreeBachelor Thesisen
dc.type.uppsokM2
Ladda ner
Original bundle
Visar 1 - 1 av 1
Hämtar...
Bild (thumbnail)
Namn:
kandidatarbete_TIFX04-22-04.pdf
Storlek:
7.64 MB
Format:
Adobe Portable Document Format
Beskrivning:
License bundle
Visar 1 - 1 av 1
Hämtar...
Bild (thumbnail)
Namn:
license.txt
Storlek:
1.64 KB
Format:
Item-specific license agreed upon to submission
Beskrivning: