2025-10-19 –, Track 05 - B05, C02
Language: Español
Cada vez que ejecutamos una suite de tests estamos generando información valiosa: qué tests fallan, cuánto duran, si hay patrones, si cambian con el tiempo… Sin embargo, esta valiosa información suele perderse entre los logs o simplemente no se recolecta.
En general, no tenemos una visión clara del comportamiento histórico de nuestros tests. Esto impide detectar flaky tests, cuellos de botella, degradaciones en la duración o áreas del código que no se prueban. Sin visibilidad, se pierde capacidad de diagnóstico y mejora.
En esta charla usaremos Python para construir un sistema sencillo que recolecte los resultados de cada ejecución de Pytest, los almacene en una base de datos y nos permita visualizarlos. A partir de ahí, veremos cómo:
- Visualizar tendencias de fallos en los tests, así como cambios en su duración.
-
Detectar flaky tests de forma pasiva, observando variabilidad entre ejecuciones.
-
Identificar nuevos tests que comienzan a fallar y patrones de inestabilidad.
-
Priorizar mejoras en la calidad a partir de datos reales.
Todo usando herramientas in-house, sin depender de SaaS externos, y con ejemplos prácticos para replicar fácilmente.
Muchas veces los problemas de calidad están delante nuestro, pero el árbol no nos deja ver el bosque. Con una infraestructura mínima y bien enfocada se pueden detectar y resolver patrones que de otra forma pasarían desapercibidos.
DevOps, Cloud and Infrastructure (SRE, systems management, CI/CD, Kubernetes, cloud providers...)
Additional topics:Web Development (frontend, backend, frameworks, APIs...), Data Science and Data Engineering (analytics, visualization, pipelines, data engineering, notebooks...)
Proposal level:Basic (no previous knowledge is necessary)
Me paso la vida entre Emacs y PDB, trabajo para Datadog haciendo productos para optimizar los tests de nuestros clientes