Los investigadores crearon un sistema de clasificación conocido como «taxonomía de la confianza» para determinar en qué casos puede fallar la confianza en el análisis de datos e identificar estrategias para reforzarla.
El artículo, publicado en Science Advances en febrero, describe los pasos del proceso de análisis de datos decidiendo qué datos recoger y qué modelos, o representaciones matemáticas, reflejan más fielmente el problema o la cuestión de la vida real que se aborda.
Los problemas pueden ser subjetivos, y los analistas se enfrentan a diversas estrategias para recopilar datos y determinar si un modelo representa fielmente el mundo real.
Existen numerosas razones por las que algunas personas pueden dudar a la hora de probar un método no estándar, por ejemplo: sentirse inseguras de que lo utilizarán correctamente. Los investigadores pueden generar confianza comprobando el código de un modelo, pero primero deben determinar si el código es reproducible.
Pero el proceso de aprendizaje automático complica el modelo, y se hace más difícil o imposible hacer una copia reutilizable del mismo. Utilizaron encuestas estatales y nacionales para hacer un análisis en tiempo real de las elecciones presidenciales estadounidenses de 2020. Esto demostró que el modelo tenía fallos y problemas con sus ideas básicas, pero seguía contribuyendo a un análisis más sólido.
Aunque no existe una solución única para crear un modelo perfecto, los investigadores reconocen que los analistas y científicos pueden reforzar la confianza en los algoritmos de las máquinas.
¿Qué le parece?
Fuente:
https://news.mit.edu
