110,250 research outputs found

    Datos masivos con privacidad y no contra privacidad

    Get PDF
    La expresión Big Data hace referencia al tratamiento de grandes volúmenes de datos mediante algoritmos matemáticos con el fin de establecer correlaciones entre ellos, predecir tendencias y tomar decisiones. Los usuarios de herramientas digitales ceden sus datos para fines concretos, por ejemplo: en las redes sociales a cambio de comunicación, en los comercios para obtener promociones y ofertas, o en las aplicaciones de salud para conseguir una relación médico-paciente más directa. El usuario desconoce los usos posteriores: empresas externas compran o alquilan los datos cedidos para finalidades que no han sido autorizadas. Derechos del usuario como privacidad, confidencialidad y autonomía quedan vulnerados. Los datos manejados de forma responsable son una herramienta útil para facilitar actos cotidianos, pero, empleados equivocadamente pueden convertirse en una fuente de discriminación y coacción de la autonomía

    Sobre el derecho a la privacidad: La relación entre privacidad e intimidad

    Get PDF
    La búsqueda de una definición podría parecer un puzzle filosófico, pero no carece de consecuencias prácticas. Pensemos por ejemplo en el réplica del “no tengo nada que esconder” (Solove 2007), tantas veces repetido cuando se discute sobre la recogida y almacenamiento de información personal de ciudadanos y usuarios por parte de gobiernos y empresas. No cabe responder a ella sin señalar o poner en cuestión algunas asunciones erróneas, muchas veces tácitas, acerca de qué es la privacidad. Lo mismo se aplica cuando, tomando el valor de la privacidad más en serio, se nos insta a ponderar la privacidad con respecto a otras cosas valiosas, como la seguridad o la libertad de expresión. No podemos calibrar si están justificados ciertos sacrificios sin una cierta idea del valor de la privacidad y, por tanto, sin comprender qué intereses o circunstancias están en juego cuando tratamos de hacer balance de las consideraciones en conflicto. Naturalmente, en este caso se trata de una indagación conceptual preliminar y tentativa. Lo que voy hacer es examinar la primera formulación del derecho a la privacidad4 en el célebre artículo de Warren y Brandeis para ver cómo entienden la privacidad. A partir de ella abordaré la enrevesada y confusa relación entre privacidad e intimidad, una cuestión sobre la que hay poco acuerdo, pero que resulta crucial si queremos avanzar en la comprensión del asunto. Aunque no son el tema expreso del trabajo, algunas consideraciones acerca del valor de la privacidad aparecen inevitablemente cuando queremos averiguar qué es.Universidad de Málaga. Campus de Excelencia Internacional Andalucía Tech

    Privacidad y redes sociales

    Get PDF

    Conocimientos y comportamientos de los usuarios de la red social Facebook relacionados con la privacidad

    Get PDF
    Este estudio examina tres variables relacionadas con la privacidad de la información en la red social Facebook: la preocupación que muestran los usuarios por la privacidad de la información que se publica en la red social, el conocimiento real que tienen sobre la política de privacidad de Facebook y las propias acciones de privacidad que los usuarios realizan para proteger sus datos privados. Asimismo se analiza la existencia de posibles diferencias de género en estas variables. La muestra estuvo compuesta por 190 jóvenes de entre 20 y 35 años de edad, todos ellos usuarios de la red social Facebook.This study examines three variables related to the privacy of information in the social network Facebook: the users’ concern about the privacy of the information published on the social network, their actual knowledge they have on Facebook’s privacy policy and the users’ privacy protection behaviors on their private data. Gender differences in these variables were also analyzed. The sample comprised 190 young people aged between 20 and 35 years old. All of them have a Facebook profile

    Sistema P2P de protección de la privacidad en motores de búsqueda basado en perfiles de usuario

    Get PDF
    Los motores de búsqueda en Internet (como por ejemplo Google, Bing, Yahoo, AOL, etc.) almacenan en sus servidores las consultas efectuadas por los usuarios. Esta información les permite crear perfiles, y así mejorar el servicio ofrecido (resultados personalizados, sugerencias, correcciones, etc.). Sin embargo, estos perfiles pueden también comprometer el derecho a la privacidad de los usuarios. La información que contienen puede servir para identificar a un usuario y así relacionar su identidad con consultas personales y confidenciales. Por esta razón, es necesario aplicar alguna medida de control que proteja la privacidad de los usuarios de motores de búsqueda. Este artículo presenta un entorno P2P diseñado para permitir que los usuarios se agrupen en diferentes categorías en función de su perfil y puedan ejecutar un protocolo para proteger su privacidad

    Estudio de modelos de privacidad de datos

    Get PDF
    El presente trabajo surge como una investigación motivada por la necesidad de proteger la privacidad de los usuarios de sistemas en contextos de análisis estadístico, inteligencia artificial y publicación de datos. Para ello se ha llevado a cabo un estudio del estado del arte y se han explorado técnicas de privatización de datos basadas en Privacidad Diferencial.Agencia Nacional de Investigación e InnovaciónICT4

    ¿Cómo medir la privacidad?

    Get PDF
    En el presente estudio revisamos el estado del arte sobre métricas de privacidad en métodos con perturbación para el control estadístico de revelación. Aunque el artículo se enfoca en microagregación de datos, dichos métodos también son aplicables a una gran variedad de escenarios alternativos, tales como la ofuscación en servicios basados en la localización. Concretamente, examinamos el criterio de -anonimato y alguna de las propuestas para mejorarlo. Motivados por la vulnerabilidad de estos criterios frente a ataques de similitud y sesgo, comparamos tres recientes métricas de privacidad, basadas en conceptos de teoría de la información, que pretenden resolver dichas vulnerabilidades.Postprint (published version

    La protección de la privacidad en la sociedad tecnológica: El derecho constitucional a la privacidad de la información personal en los Estados Unidos

    Get PDF
    La emergencia y el proceso de conceptualización del derecho constitucional a la privacidad de la información personal en el sistema constitucional norteamericano, reflejan la consideración de la privacidad de la información personal como un valor constituThe emergency and the process of conceptualization of the constitutional right to informational privacy in the American constitutional system, show the consideration of informational privacy as a constitutive value that promotes the configuration of the

    E-privacidad y redes sociales

    Get PDF
    Els riscos tecnològics per a la intimitat o privadesa no es limiten a la problemàtica de les bases de dades. Les xarxes socials, les etiquetes RFID, la computació ubiqua i la robòtica, per exemple, són altres exemples de risc per a la privadesa. Les xarxes socials tenen un valor econòmic i cada cop més enginys cerquen la informació personal dels seus usuaris. En canvi, l'estudi de la privadesa en les xarxes socials tot just és una nova àrea d'estudi. Els experts en tecnologia de la informació sovint consideren la privadesa com un atribut quantificable que es pot negociar i probablement intercanviar entre individus a canvi de certs beneficis. Nosaltres creiem, en canvi, que la regulació ha d'afavorir les anomenades privacy enhancing technologies (PET) o tecnologies garants de la privadesa. Aquesta garantia tecnològica de la privadesa és especialment necessària en les xarxes socials. Els drets fonamentals no poden quedar reduïts només a opcions individuals que cal activar. El component que tenen de política pública podria ser garantit si s'incorporessin versions favorables a la privadesa en el mateix disseny de les tecnologies de la informació, com per exemple la privadesa per defecte. Una altra via interessant és fer que les empreses vegin també un profit econòmic en la previsió de tecnologia garant de la privadesa.The technological risks for privacy and anonymity are not limited to the problems of databases. Social networks, RFID tags, ubiquitous data processing and robotics, for example, are other examples of risk. Social networks have an economic value and search engines increasingly try to access their users' personal information. In contrast, the study of privacy in social networks is a new area. Experts in information technology generally consider privacy as a quantifiable attribute which can be negotiated and probably exchanged between individuals for certain benefits. We believe, on the other hand, that regulation should favour the so-called Privacy Enhancing Technologies (PET) to guarantee privacy, and that these are particularly necessary in social networks. Fundamental rights cannot be reduced to individual options which need to be activated. The public component of public policy could be guaranteed if versions favourable to privacy were incorporated in the design of information technologies themselves, such as privacy by default. Another way may be for businesses to see economic benefits in planning technological measures guaranteeing privacy.Los riesgos tecnológicos para la intimidad o la privacidad no se limitan a la problemática de las bases de datos. Las redes sociales, las etiquetas RFID, la computación ubicua y la robótica, por ejemplo, son otros ejemplos de riesgo para la privacidad. Las redes sociales también poseen valor económico y por ello cada vez se crean más ingenios que buscan la información personal de sus usuarios. En cambio, el estudio de la privacidad en las redes sociales es sólo una nueva área de estudio. A menudo, los expertos en tecnología de la información consideran la privacidad como un atributo cuantificable que se puede negociar y, probablemente, intercambiar entre individuos a cambio de ciertos beneficios. Nosotros creemos, en cambio, que la regulación debe favorecer las denominadas privacy enhancing technologies (PET) o tecnologías garantes de la privacidad. Esta garantía tecnológica de la privacidad es especialmente necesaria en las redes sociales. Los derechos fundamentales no pueden quedar reducidos sólo a opciones individuales que es preciso activar. Su componente de política pública podría estar garantizado si se incorporaran versiones favorables a la privacidad en el mismo diseño de las tecnologías de la información, como la privacidad por defecto. Otra vía interesante es conseguir que las empresas encuentren también un provecho económico en la previsión de tecnología garante de la privacidad
    corecore