Djupdykning med djupinlärning Artificiella neuronnät jämförda med addback-algoritmen för detektorrekonstruktion av γ-fotoner

Typ
Examensarbete för kandidatexamen
Bachelor Thesis
Program
Publicerad
2022
Författare
JUHLIN ONBECK, ALFRED
JOHANSSON, BJÖRN
SHAFIQ AHLGREN, GABRIEL
TEPP, ISABELLA
Modellbyggare
Tidskriftstitel
ISSN
Volymtitel
Utgivare
Sammanfattning
Tolkning av detektordata kan vara invecklat och är inte alltid entydigt. Hur γ-fotoner in teragerar med materia skiljer sig från hur laddade partiklar gör det. Spridningar av olika slag gör att detektion av fotoner blir komplex, i synnerhet att karaktärisera varje indivi duell foton, och inte bara den totala deponerade energin. För att urskilja multipliciteten, energin och riktningen hos γ-fotoner krävs detaljerad rekonstruktion av detektordata. Denna studie är en vidareutveckling av tidigare kandidatarbeten med målet att utveck la artificiella neuronnät som överträffar dagens konventionella rekonstruktionsalgoritm, addback. Olika typer av neuronnät har undersökts där deras strukturer och hyperpara metrar varierats och utöver detta har också residualnätverket ResNeXt implementerats. Alla nätverk har tränats på data som är simulerad med hjälp av GEANT4, ggland och ROOT. Datan efterliknar verkliga mätningar av isotropiska γ-fotoner med Darmstadt Heidelberg-kristallbollen. Att träna artificiella neuronnät är en iterativ process. För alla resultat som visas har flera körningar gjorts för samma datapunkt för att verifiera att resultaten är reproducerbara och inte bara slumpmässiga eller lyckosamma. Träningen kan sedan upprepas med varierande parametrar för att optimera dem. Detta multiparameterproblem är en av anledningarna till varför träningen av artificiella neuronnät är väldigt komplex. Prestandautvärderingen är utformad så att resultaten kan jämföras med addback. Med hjälp av detta har mer detaljerade studier gjorts angående om det finns skillnader i hur väl de olika metoderna rekonstruerar för olika typer av händelser. Neuronnäten som tränats i detta arbeta överträffar de från tidigare arbeten. För de ener giintervall som neuronnäten är tränade på, 0,1 MeV − 10 MeV, presterar de även bättre än addback. Alla de tre typer av nätverk som optimerats, fullt kopplade nätverk (FCN), faltande nätverk (CNN) och ResNeXt, hade lägre fel än addback när de tränats på data i detta intervall. För andra intervall, 0,1 MeV − 15 MeV, som nätverken inte var tränade för presterar addback fortfarande bättre.
Beskrivning
Ämne/nyckelord
Citation
Arkitekt (konstruktör)
Geografisk plats
Byggnad (typ)
Byggår
Modelltyp
Skala
Teknik / material
Index