110,250 research outputs found
Datos masivos con privacidad y no contra privacidad
La expresión Big Data hace referencia al tratamiento de grandes volúmenes de datos mediante algoritmos matemáticos con el fin de establecer correlaciones entre ellos, predecir tendencias y tomar decisiones. Los usuarios de herramientas digitales ceden sus datos para fines concretos, por ejemplo: en las redes sociales a cambio de comunicación, en los comercios para obtener promociones y ofertas, o en las aplicaciones de salud para conseguir una relación médico-paciente más directa. El usuario desconoce los usos posteriores: empresas externas compran o alquilan los datos cedidos para finalidades que no han sido autorizadas. Derechos del usuario como privacidad, confidencialidad y autonomía quedan vulnerados. Los datos manejados de forma responsable son una herramienta útil para facilitar actos cotidianos, pero, empleados equivocadamente pueden convertirse en una fuente de discriminación y coacción de la autonomía
Sobre el derecho a la privacidad: La relación entre privacidad e intimidad
La búsqueda de una definición podría parecer un puzzle filosófico, pero no carece de
consecuencias prácticas. Pensemos por ejemplo en el réplica del “no tengo nada que
esconder” (Solove 2007), tantas veces repetido cuando se discute sobre la recogida y
almacenamiento de información personal de ciudadanos y usuarios por parte de gobiernos y
empresas. No cabe responder a ella sin señalar o poner en cuestión algunas asunciones
erróneas, muchas veces tácitas, acerca de qué es la privacidad. Lo mismo se aplica cuando,
tomando el valor de la privacidad más en serio, se nos insta a ponderar la privacidad con
respecto a otras cosas valiosas, como la seguridad o la libertad de expresión. No podemos
calibrar si están justificados ciertos sacrificios sin una cierta idea del valor de la privacidad y, por tanto, sin comprender qué intereses o circunstancias están en juego cuando tratamos de hacer balance de las consideraciones en conflicto. Naturalmente, en este caso se trata de una indagación conceptual preliminar y tentativa. Lo que
voy hacer es examinar la primera formulación del derecho a la privacidad4 en el célebre
artículo de Warren y Brandeis para ver cómo entienden la privacidad. A partir de ella
abordaré la enrevesada y confusa relación entre privacidad e intimidad, una cuestión sobre
la que hay poco acuerdo, pero que resulta crucial si queremos avanzar en la comprensión
del asunto. Aunque no son el tema expreso del trabajo, algunas consideraciones acerca del
valor de la privacidad aparecen inevitablemente cuando queremos averiguar qué es.Universidad de Málaga. Campus de Excelencia Internacional Andalucía Tech
eXPertos en privacidad
Postprint (published version
Conocimientos y comportamientos de los usuarios de la red social Facebook relacionados con la privacidad
Este estudio examina tres variables relacionadas con la privacidad de la información en
la red social Facebook: la preocupación que muestran los usuarios por la privacidad de
la información que se publica en la red social, el conocimiento real que tienen sobre la
política de privacidad de Facebook y las propias acciones de privacidad que los usuarios
realizan para proteger sus datos privados. Asimismo se analiza la existencia de posibles
diferencias de género en estas variables. La muestra estuvo compuesta por 190 jóvenes
de entre 20 y 35 años de edad, todos ellos usuarios de la red social Facebook.This study examines three variables related to the privacy of information in the social
network Facebook: the users’ concern about the privacy of the information published on
the social network, their actual knowledge they have on Facebook’s privacy policy and
the users’ privacy protection behaviors on their private data. Gender differences in these
variables were also analyzed. The sample comprised 190 young people aged between
20 and 35 years old. All of them have a Facebook profile
Sistema P2P de protección de la privacidad en motores de búsqueda basado en perfiles de usuario
Los motores de búsqueda en Internet (como por ejemplo Google, Bing, Yahoo, AOL, etc.) almacenan en sus servidores las consultas efectuadas por los usuarios. Esta información les permite crear perfiles, y así mejorar el servicio ofrecido (resultados personalizados, sugerencias, correcciones, etc.). Sin embargo, estos perfiles pueden también comprometer el derecho a la privacidad de los usuarios. La información que contienen puede servir para identificar a un usuario y así relacionar su identidad con consultas personales y confidenciales. Por esta razón, es necesario aplicar alguna medida de control que proteja la privacidad de los usuarios de motores de búsqueda. Este artículo presenta un entorno P2P diseñado para permitir que los usuarios se agrupen en diferentes categorías en función de su perfil y puedan ejecutar un protocolo para proteger su privacidad
Estudio de modelos de privacidad de datos
El presente trabajo surge como una investigación motivada por la necesidad de proteger la privacidad de los usuarios de sistemas en contextos de análisis estadístico, inteligencia artificial y publicación de datos. Para ello se ha llevado a cabo un estudio del estado del arte y se han explorado técnicas de privatización de datos basadas en Privacidad Diferencial.Agencia Nacional de Investigación e InnovaciónICT4
¿Cómo medir la privacidad?
En el presente estudio revisamos el estado del arte sobre métricas de privacidad en métodos con perturbación para el control estadístico de revelación. Aunque el artículo se enfoca en microagregación de datos, dichos métodos también son aplicables a una gran variedad de escenarios alternativos, tales como la ofuscación en servicios basados en la localización. Concretamente, examinamos el criterio de -anonimato y alguna de las propuestas para mejorarlo. Motivados por la vulnerabilidad de estos criterios frente a ataques de similitud y sesgo, comparamos tres recientes métricas de privacidad, basadas en conceptos de teoría de la información, que pretenden resolver dichas vulnerabilidades.Postprint (published version
La protección de la privacidad en la sociedad tecnológica: El derecho constitucional a la privacidad de la información personal en los Estados Unidos
La emergencia y el proceso de conceptualización del derecho constitucional a la privacidad de la información personal en el sistema constitucional norteamericano, reflejan la consideración de la privacidad de la información personal como un valor constituThe emergency and the process of conceptualization of the constitutional right to informational privacy in the American constitutional system, show the consideration of informational privacy as a constitutive value that promotes the configuration of the
E-privacidad y redes sociales
Els riscos tecnològics per a la intimitat o privadesa no es limiten a la problemàtica de les bases de dades. Les xarxes socials, les etiquetes RFID, la computació ubiqua i la robòtica, per exemple, són altres exemples de risc per a la privadesa. Les xarxes socials tenen un valor econòmic i cada cop més enginys cerquen la informació personal dels seus usuaris. En canvi, l'estudi de la privadesa en les xarxes socials tot just és una nova àrea d'estudi. Els experts en tecnologia de la informació sovint consideren la privadesa com un atribut quantificable que es pot negociar i probablement intercanviar entre individus a canvi de certs beneficis. Nosaltres creiem, en canvi, que la regulació ha d'afavorir les anomenades privacy enhancing technologies (PET) o tecnologies garants de la privadesa. Aquesta garantia tecnològica de la privadesa és especialment necessària en les xarxes socials. Els drets fonamentals no poden quedar reduïts només a opcions individuals que cal activar. El component que tenen de política pública podria ser garantit si s'incorporessin versions favorables a la privadesa en el mateix disseny de les tecnologies de la informació, com per exemple la privadesa per defecte. Una altra via interessant és fer que les empreses vegin també un profit econòmic en la previsió de tecnologia garant de la privadesa.The technological risks for privacy and anonymity are not limited to the problems of databases. Social networks, RFID tags, ubiquitous data processing and robotics, for example, are other examples of risk. Social networks have an economic value and search engines increasingly try to access their users' personal information. In contrast, the study of privacy in social networks is a new area. Experts in information technology generally consider privacy as a quantifiable attribute which can be negotiated and probably exchanged between individuals for certain benefits. We believe, on the other hand, that regulation should favour the so-called Privacy Enhancing Technologies (PET) to guarantee privacy, and that these are particularly necessary in social networks. Fundamental rights cannot be reduced to individual options which need to be activated. The public component of public policy could be guaranteed if versions favourable to privacy were incorporated in the design of information technologies themselves, such as privacy by default. Another way may be for businesses to see economic benefits in planning technological measures guaranteeing privacy.Los riesgos tecnológicos para la intimidad o la privacidad no se limitan a la problemática de las bases de datos. Las redes sociales, las etiquetas RFID, la computación ubicua y la robótica, por ejemplo, son otros ejemplos de riesgo para la privacidad. Las redes sociales también poseen valor económico y por ello cada vez se crean más ingenios que buscan la información personal de sus usuarios. En cambio, el estudio de la privacidad en las redes sociales es sólo una nueva área de estudio. A menudo, los expertos en tecnología de la información consideran la privacidad como un atributo cuantificable que se puede negociar y, probablemente, intercambiar entre individuos a cambio de ciertos beneficios. Nosotros creemos, en cambio, que la regulación debe favorecer las denominadas privacy enhancing technologies (PET) o tecnologías garantes de la privacidad. Esta garantía tecnológica de la privacidad es especialmente necesaria en las redes sociales. Los derechos fundamentales no pueden quedar reducidos sólo a opciones individuales que es preciso activar. Su componente de política pública podría estar garantizado si se incorporaran versiones favorables a la privacidad en el mismo diseño de las tecnologías de la información, como la privacidad por defecto. Otra vía interesante es conseguir que las empresas encuentren también un provecho económico en la previsión de tecnología garante de la privacidad
- …