Jasiewicz, Jarosław. PromotorDyba, KrzysztofInterpretation of geospatial data using explainable machine learning methods2024-10-042024-10-042024https://hdl.handle.net/10593/27844Wydział Nauk Geograficznych i GeologicznychUczenie maszynowe niewątpliwie stało się wszechobecne w różnych dyscyplinach naukowych uwzględniając nauki o Ziemi i środowisku, rewolucjonizując przy tym sposób analizy i interpretacji danych geoprzestrzennych. Rozwój złożonych modeli typu czarnej skrzynki spowodował nowe wyzwania związane z przejrzystością ich działania oraz interpretowalnością wyników. Przedstawiona dysertacja analizuje przydatność wyjaśnialnych metod uczenia maszynowego do interpretacji danych geoprzestrzennych, odpowiadając na pytanie czy niniejsze metody mogą wspomagać proces interpretacji czynników prowadzących do uzyskania wyniku. Cel dysertacji został zrealizowany przez trzy eksperymenty badawcze związane z zastosowaniem: 1) analizy regresji do estymacji temperatury jezior; 2) klasyfikacji nadzorowanej do automatycznego kartowania form geomorfologicznych; 3) klasyfikacji nienadzorowanej do wyznaczenia i interpretacji typów powierzchni terenu. Na podstawie uzyskanych wyników stwierdzono, że zastosowane metody wyjaśniające są przydatne do interpretacji działania modeli typu czarnej skrzynki. Pozwoliły one na lepsze zrozumienie decyzji podejmowanych przez modele i ujawnienie relacji pomiędzy zmiennymi wyjaśniającymi a wynikiem modelu. Wykorzystane metody wyjaśniające wskazały, nie tylko, które cechy są istotne, ale przede wszystkim, w jaki sposób wpłynęły na wynik predykcji. Machine learning has undoubtedly become widespread in various scientific disciplines, including Earth and environmental sciences, revolutionizing the way of analyzing and interpreting geospatial data. The development of complex black-box models has brought new challenges related to the transparency of their operation and the interpretability of the results. The presented dissertation examines the usefulness of explainable machine learning methods for interpreting geospatial data, answering the question of whether these methods can support the process of interpreting factors leading to a result. The objective of the thesis was achieved through three research experiments involving the application of: 1) regression analysis for estimating the surface temperature of lakes; 2) supervised classification for automatic mapping of landforms; 3) unsupervised classification for determining and interpreting land surface types. Based on the obtained results, the applied explainability methods were found to be useful for interpreting the operation of black-box models. They allowed for a better understanding of the decisions made by the models and revealing the relationships between the explanatory variables and the model output. These methods indicated not only which features were significant, but more importantly, how they affected the prediction result.endane geoprzestrzenneuczenie maszynowewyjaśnialnośćmodel czarnej skrzynkigeospatial datamachine learningexplainabilityblack-box modelInterpretacja danych geoprzestrzennych przy użyciu wyjaśnialnych metod uczenia maszynowegoInterpretation of geospatial data using explainable machine learning methodsinfo:eu-repo/semantics/doctoralThesis