Badacze stworzyli system klasyfikacji znany jako „taksonomia zaufania”, aby określić, gdzie zaufanie może zawieść w analizie danych i określić strategie wzmacniania zaufania.
Praca, opublikowana w lutym w Science Advances, nakreśla etapy procesu analizy danych, decydując o tym, jakie dane należy zebrać i jakie modele, czyli reprezentacje matematyczne, najwierniej odzwierciedlają rzeczywisty problem lub pytanie, którym się zajmujemy.
Problemy mogą być subiektywne, a analitycy stają przed różnymi strategiami zbierania danych i określania, czy model dokładnie reprezentuje świat rzeczywisty.
Istnieje wiele powodów, dla których niektórzy ludzie mogą wahać się, czy wypróbować niestandardową metodę, tj. czuć się niepewnie, czy użyją jej prawidłowo. Naukowcy mogą budować zaufanie poprzez sprawdzanie kodu w modelu, ale muszą najpierw ustalić, czy kod jest powtarzalny.
Ale proces uczenia maszynowego sprawia, że model staje się bardziej skomplikowany, a stworzenie jego kopii nadającej się do ponownego wykorzystania staje się trudniejsze lub niemożliwe. Użyto stanowych i krajowych sondaży, aby dokonać analizy w czasie rzeczywistym wyborów prezydenckich w USA w 2020 roku. Pokazało to, że model miał zarówno błędy, jak i problemy z jego podstawowymi ideami, ale wciąż przyczyniał się do silniejszej analizy.
Choć nie ma jednego rozwiązania na stworzenie idealnego modelu, badacze przyznają, że analitycy i naukowcy mogą wzmocnić zaufanie do algorytmów maszynowych.
Co o tym myślicie?
Źródło:
https://news.mit.edu
