[ES] La ϵ-privacidad diferencial (DP, por sus siglas en
inglés) es un modelo de privacidad muy conocido que ofrece
garantías sólidas de privacidad. Sin embargo, cuando se aplica
a la publicación de datos, DP deteriora significativamente la
utilidad analítica de los datos protegidos. Sin embargo, las
implementaciones de DP para la publicación de datos han
utilizado parámetros de privacidad débiles (altos valores de ϵ),
que diluyen las garantías de privacidad de DP. En este trabajo,
abordamos este problema utilizando una formulación alternativa
de las garantías de privacidad de DP, llamada privacidad
diferencial individual ϵ (iDP), que produce una distorsión menor
de los datos a la vez que proporciona la misma protección
que DP a los sujetos. Mediante ésta y aplicando un paso de
preprocesamiento basado en microagregación para reducir la
sensibilidad a los cambios de registros que determina la cantidad
de ruido requerido para imponer iDP (y DP) conseguimos un
mejor equilibrio entre privacidad y utilidad