Konvolucionālo neironu tīklu salīdzinājums smadzeņu audzēju segmentācijai
Autor
Tumāns, Arturs
Co-author
Latvijas Universitāte. Datorikas fakultāte
Advisor
Leja, Laura
Datum
2024Metadata
Zur LanganzeigeZusammenfassung
Šajā darbā ir implementēts dziļais konvolūcijas neirona tīkls medicīnas attēlveidošanai, īpaši trīsdimensiju smadzeņu audzēju segmentēšanai. Smadzeņu audzēju segmentēšana ir būtisks process medicīniskajā attēlveidošanā, kas ietver precīzu audzēja robežu noteikšanu un izdalīšanu smadzenēs. Smadzeņu audzēju segmentēšana ir kritiski svarīgs solis smadzeņu audzēju diagnozēšanā un ārstēšanas plānošanā, kas prasa augstu precizitāti un uzticamību sakarā ar smadzeņu struktūru sarežģītību un audzēju formu un izmēru dažadību. Darbs koncentrējas uz specifisku konvolūcijas neironu tīklu arhitektūru, pielāgotas 3D U-Net, pielietojumu Smadzeņu Audzēju Segmentēšanas Izaicinājumā 2020 (BraTS 2020), kas ir atzīts standarts šajā jomā. Darba praktiskajā daļā tiek pielāgoti modeļa hiperparametri un izvēlētas vispiemērotākās tehnikas uzdevumam, ar kuru palīdzību ir izdevies sasniegt 78,7% vidējo F1 vērtējumu uz valīdacījas datukopas, daudzklasēs semantiskās 3D segmentēšanas uzdevumā. In this thesis, a deep convolutional network has been implemented for medical imaging, particularly for three-dimensional brain tumor segmentation. Brain tumor segmentation is a crucial process in medical imaging that involves the precise identification and delineation of tumor boundaries within the brain. This segmentation is critically important for diagnosing brain tumors and planning treatment, requiring high accuracy and reliability due to the complexity of brain structures and the diversity of tumor shapes and sizes. The thesis focuses on the application of a specific convolutional neural network architecture, customized for 3D U-Net, in the Brain Tumor Segmentation Challenge 2020 (BraTS 2020), which is a recognized benchmark in this field. In the practical part of the work, the model's hyperparameters were adjusted, and the most suitable techniques for the task were selected, which helped to achieve an average F1 score of 78.7% on validation dataset in the multi-class semantic 3D segmentation task.