Jassem, Krzysztof. PromotorWłodarczyk, Wojciech2023-10-172023-10-172023https://hdl.handle.net/10593/27425Wydział Matematyki i InformatykiCrowdsourcing pozwala na wykorzystanie zbiorowej inteligencji dużej grupy ludzi do rozwiązywania zadań z dziedzin takich jak sztuczna inteligencja, uczenie maszynowe i rozwój badań naukowych za pośrednictwem platform internetowych. Współcześnie badania nad rozwojem metody crowdsourcingu skupione są przede wszystkim w trzech obszarach: optymalizacji jakości pozyskanych danych, optymalizacji kosztu procesu oraz optymalizacji czasu trwania procesu. Niniejsza rozprawa skupia się na zagadnieniach związanych z optymalizacją jakości procesu crowdsourcingu dla zadań dotyczących danych lingwistycznych. Praca opisuje autorski model Dynamicznej Informacji Zwrotnej (DIZ), którego zadaniem jest generowanie informacji zwrotnej w sposób automatyczny. Rozprawa weryfikuje skuteczność tego modelu dla danych empirycznych oraz danych symulacyjnych. Analiza wyników przeprowadzonego eksperymentu wykazuje skuteczność modelu DIZ w poprawie jakości generowanej informacji zwrotnej, jednak jakość tego rozwiązana jest zależna od jakości oznaczeń tworzonych przez anotatorów. Crowdsourcing uses the collective intelligence of a large group of people to solve tasks in fields such as artificial intelligence, machine learning and scientific research development through online platforms. Nowadays, research on the development of the crowdsourcing method is focused primarily in three areas: optimization of the quality of acquired data, optimization of the cost of the process and optimization of the duration of the process. This dissertation focuses on issues related to optimizing the quality of the crowdsourcing process for tasks related to linguistic data. The work describes the author's Dynamic Feedback Model, whose task is to generate feedback automatically. The dissertation verifies the effectiveness of this model for empirical and simulation data. The analysis of the results of the experiment shows the effectiveness of the author's model in improving the quality of the generated feedback, but the quality of this solution depends on the quality of the markings created by annotators.plcrowdsourcingobliczenia ludzkienauczanie maszynoweprzetwarzanie języka naturalnegohuman-based computationmachine teachingnatural language processingModele ewaluacji poprawności danych lingwistycznych pozyskanych metodą crowdsourcingModels for evaluating the correctness of linguistic data obtained using crowdsourcinginfo:eu-repo/semantics/doctoralThesis