Interpretacja danych geoprzestrzennych przy użyciu wyjaśnialnych metod uczenia maszynowego
Loading...
Date
2024
Authors
Advisor
Journal Title
Journal ISSN
Volume Title
Publisher
Title alternative
Interpretation of geospatial data using explainable machine learning methods
Abstract
Uczenie maszynowe niewątpliwie stało się wszechobecne w różnych dyscyplinach naukowych uwzględniając nauki o Ziemi i środowisku, rewolucjonizując przy tym sposób analizy i interpretacji danych geoprzestrzennych. Rozwój złożonych modeli typu czarnej skrzynki spowodował nowe wyzwania związane z przejrzystością ich działania oraz interpretowalnością wyników.
Przedstawiona dysertacja analizuje przydatność wyjaśnialnych metod uczenia maszynowego do interpretacji danych geoprzestrzennych, odpowiadając na pytanie czy niniejsze metody mogą wspomagać proces interpretacji czynników prowadzących do uzyskania wyniku. Cel dysertacji został zrealizowany przez trzy eksperymenty badawcze związane z zastosowaniem:
1) analizy regresji do estymacji temperatury jezior;
2) klasyfikacji nadzorowanej do automatycznego kartowania form geomorfologicznych;
3) klasyfikacji nienadzorowanej do wyznaczenia i interpretacji typów powierzchni terenu.
Na podstawie uzyskanych wyników stwierdzono, że zastosowane metody wyjaśniające są przydatne do interpretacji działania modeli typu czarnej skrzynki. Pozwoliły one na lepsze zrozumienie decyzji podejmowanych przez modele i ujawnienie relacji pomiędzy zmiennymi wyjaśniającymi a wynikiem modelu. Wykorzystane metody wyjaśniające wskazały, nie tylko, które cechy są istotne, ale przede wszystkim, w jaki sposób wpłynęły na wynik predykcji.
Machine learning has undoubtedly become widespread in various scientific disciplines, including Earth and environmental sciences, revolutionizing the way of analyzing and interpreting geospatial data. The development of complex black-box models has brought new challenges related to the transparency of their operation and the interpretability of the results.
The presented dissertation examines the usefulness of explainable machine learning methods for interpreting geospatial data, answering the question of whether these methods can support the process of interpreting factors leading to a result. The objective of the thesis was achieved through three research experiments involving the application of:
1) regression analysis for estimating the surface temperature of lakes;
2) supervised classification for automatic mapping of landforms;
3) unsupervised classification for determining and interpreting land surface types.
Based on the obtained results, the applied explainability methods were found to be useful for interpreting the operation of black-box models. They allowed for a better understanding of the decisions made by the models and revealing the relationships between the explanatory variables and the model output. These methods indicated not only which features were significant, but more importantly, how they affected the prediction result.
Description
Wydział Nauk Geograficznych i Geologicznych
Sponsor
Keywords
dane geoprzestrzenne, uczenie maszynowe, wyjaśnialność, model czarnej skrzynki, geospatial data, machine learning, explainability, black-box model