Vis enkel innførsel

dc.contributor.advisorFutsæther, Cecilia Marie
dc.contributor.advisorMoe, Yngve Mardal
dc.contributor.authorKaushal, Christine Kiran
dc.date.accessioned2019-07-17T09:21:30Z
dc.date.available2019-07-17T09:21:30Z
dc.date.issued2019
dc.identifier.urihttp://hdl.handle.net/11250/2605613
dc.description.abstractPresis inntegning av tumorer ansees som det svakeste leddet og den største kilden til usikkerhet ved planlegging av strålebehandling. Formålet med denne avhandlingen er å utforske mulighetene for automatisk inntegning av kreftsvulster i medisinske bilde data av analkreft fra Oslo Universitets sykehus. Bruk av et auto-inntegnings dataprogram kan potensielt spare tid, tilføre konsistens og gi leger muligheten til å fokusere mer på andre utfordringer. Datasettet består av MRI, PET og CT bilder fra 85 pasienter med analkreft, som var planlagt for strålebehandling eller kjemoradioterapi i perioden 2013 til 2016. Tre erfarne onkologer har forsynt datasettet med definisjoner av målvolum av primær tumor, som ble ansett som den grunnleggende sannheten. Datasette ble delt inn i et trenings, et validerings og et testset, stratifisert med hensyn til volumet av målvolumene. Auto-inntegningen av primær tumor i medisinske bilder ble gjennomført ved bruk av en dyplærings tilnærming av sentimental bildesegmentering (sentiment image segmentation), ved en U-Net arkitektur. Ti eksperimenter basert på ulike bildemodaliteter, eller kombinasjoner av dem, ble gjennomført. For å øke treningsdata ble det tatt nytte av bilderedigeringsteknikker under preprosesseringen av dataene. Videre ble datarensing utført for å ekskludere defekte bilderskiver. Til slutt ble eksperimentenes Dice prestasjoner sammenlignet og effekten av regularisering og datarensing ble utforsket. Det benyttede rammeverket, sammen med kodene som er brukt for preprosesseringen er tilgjengelig på https://github.com/christinekaush/ANCARAD_autodel. Ved å bruke PET og CT bilder sammen som inngangslag til segmenteringsprogrammet med dyplæring ser mest lovende ut for et formål om auto-inntegning av kreftsvulster hos analkreft pasienter, med en Dice verdi på 0,885 på valideringssettet. Datarensing og rydding av bildeskiver uten inntegning gitt av en onkolog, synes å ha hatt den største innvirkningen på Dice prestasjonen til modellen. Eksperimentene som benyttet seg av CT og T2W bilder individuelt som inngang til dyplæringsmodellen viste i tillegg lovende Dice koeffisienter på henholdsvis 0,877 og 0,861. Auto-innegning av primær tumor i medisinske bilder fra analkreft pasienter ved bruk av dyplæring viser et lovende potensial, ved å tilby sammenlignbare resultater av overlappingen forventet mellom onkologer. Tumorene i dette datasettet er lokalisert i mer eller mindre samme region, som gjør det enklere for en modell å lære seg hvordan den skal finne potensielle kreftvev hos analkreft pasienter. Videre utforsking av auto-inntegning bør gjennomføres ved å inkludere bildeskiver som representerer regioner uten analkreft tumorer.nb_NO
dc.description.abstractPrecise delineation of tumors is considered the weakest link and the largest source of uncertainty in radiotherapy planning. The purpose of this thesis is to explore some of the possibilities for automatic delineation of cancerous tumors in medical image data of anal cancer provided by Oslo University Hospital. The use of an autodelineation computer program could potentially save time, provide consistency and give the physicians the possibility to focus more on other challenges. The dataset consisted of MRI, PET and CT images from 85 patients with anal cancer, who were scheduled for radiotherapy or chemo-radiotherapy in the period 2013 to 2016. Three experienced radiation oncologists provided the dataset with target volume delineations of the primary tumor, which was considered the ground truth delineations. The dataset was split into a training, a validation and a test set, stratified based on the volume of the ground truth delineations. The autodelineation of the primary tumors in the medical images was performed using a deep learning approach by sentiment image segmentation, with a U-Net architecture. Ten experiments based on different imaging modalities, and combinations of them, were conducted. To increase the training data, image augmentation was used when preprocessing the data. Furthermore, data cleaning was performed in order to exclude image slices with defects. Finally, the Dice performance of the experiments using different imaging modalities as input was compared and the effects of regularization and data cleaning were explored. The implemented framework along with the codes used for the preprocessing is available at https://github.com/christinekaush/ANCARAD_autodel. Using PET and CT images together as input to the deep learning segmentation program seems the most promising for the purpose of autodelineation of cancerous tumors of anal cancer patients, with a Dice performance of 0.885 on the validation set. Furthermore, data cleaning and the removal of image slices with no delineation provided by an oncologist seemed to have the largest impact on the Dice performance of the model. In addition, the experiments using CT and T2W individually as input to the deep learning model also showed promising results with Dice coefficients of 0.877 and 0.861 respectively. When inspecting the autodelineations on the validation and test set, the delineations made by the deep learning model matched the provided target volume well, resulting in high Dice performances per patient ($>0.85$). The model does not seem to recognize image slices that did not contain any tumor tissue delineation made by an oncologist. Deep learning autodelineation of the primary tumor in medical images of anal cancer patient shows excellent potential, providing comparable performance to the overlap expected between oncologists. The tumors in this dataset are located in more or less the same region, which makes it easier for the model to learn how to find tissue that potentially is cancerous for anal cancer patients. Further exploration of autodelineation including more image slices representing regions without anal cancer tumors should be conducted.nb_NO
dc.language.isoengnb_NO
dc.publisherNorwegian University of Life Sciences, Åsnb_NO
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internasjonal*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/deed.no*
dc.subjectU-Netnb_NO
dc.subjectDicenb_NO
dc.subjectAutodelineationnb_NO
dc.subjectSemantic image segmentationnb_NO
dc.subjectImage augmentationnb_NO
dc.subjectData cleaningnb_NO
dc.subjectMachine learningnb_NO
dc.subjectCo-registeringnb_NO
dc.subjectMedical imagesnb_NO
dc.titleDeep learning for automatic tumor delineation of anal cancer based on MRI, PET and CT imagesnb_NO
dc.typeMaster thesisnb_NO
dc.description.localcodeM-MFnb_NO


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel

Attribution-NonCommercial-NoDerivatives 4.0 Internasjonal
Med mindre annet er angitt, så er denne innførselen lisensiert som Attribution-NonCommercial-NoDerivatives 4.0 Internasjonal