73 research outputs found

    Detección de opinion spam usando PU-learning

    Full text link
    Tesis por compendio[EN] Abstract The detection of false or true opinions about a product or service has become nowadays a very important problem. Recent studies show that up to 80% of people have changed their final decision on the basis of opinions checked on the web. Some of these opinions may be false, positive in order to promote a product/service or negative to discredit it. To help solving this problem in this thesis is proposed a new method for detection of false opinions, called PU-Learning*, which increases the precision by an iterative algorithm. It also solves the problem of lack of labeled opinions. To operate the method proposed only a small set of opinions labeled as positive and another large set of opinions unlabeled are needed. From this last set, missing negative opinions are extracted and used to achieve a two classes binary classification. This scenario has become a very common situation in the available corpora. As a second contribution, we propose a representation based on n-grams of characters. This representation has the advantage of capturing both the content and the writing style, allowing for improving the effectiveness of the proposed method for the detection of false opinions. The experimental evaluation of the method was carried out by conducting three experiments classification of opinions, using two different collections. The results obtained in each experiment allow seeing the effectiveness of proposed method as well as differences between the use of several types of attributes. Because the veracity or falsity of the reviews expressed by users becomes a very important parameter in decision making, the method presented here, can be used in any corpus where you have the above characteristics.[ES] Resumen La detección de opiniones falsas o verdaderas acerca de un producto o servicio, se ha convertido en un problema muy relevante de nuestra 'época. Según estudios recientes hasta el 80% de las personas han cambiado su decisión final basados en las opiniones revisadas en la web. Algunas de estas opiniones pueden ser falsas positivas, con la finalidad de promover un producto, o falsas negativas para desacreditarlo. Para ayudar a resolver este problema se propone en esta tesis un nuevo método para la detección de opiniones falsas, llamado PU-Learning modificado. Este método aumenta la precisión mediante un algoritmo iterativo y resuelve el problema de la falta de opiniones etiquetadas. Para el funcionamiento del método propuesto se utilizan un conjunto pequeño de opiniones etiquetadas como falsas y otro conjunto grande de opiniones no etiquetadas, del cual se extraen las opiniones faltantes y así lograr una clasificación de dos clases. Este tipo de escenario se ha convertido en una situación muy común en los corpus de opiniones disponibles. Como una segunda contribución se propone una representación basada en n-gramas de caracteres. Esta representación tiene la ventaja de capturar tanto elementos de contenido como del estilo de escritura, permitiendo con ello mejorar la efectividad del método propuesto en la detección de opiniones falsas. La evaluación experimental del método se llevó a cabo mediante tres experimentos de clasificación de opiniones utilizando dos colecciones diferentes. Los resultados obtenidos en cada experimento permiten ver la efectividad del método propuesto así como también las diferencias entre la utilización de varios tipos de atributos. Dado que la falsedad o veracidad de las opiniones vertidas por los usuarios, se convierte en un parámetro muy importante en la toma de decisiones, el método que aquí se presenta, puede ser utilizado en cualquier corpus donde se tengan las características mencionadas antes.[CA] Resum La detecció d'opinions falses o vertaderes al voltant d'un producte o servei s'ha convertit en un problema força rellevant de la nostra època. Segons estudis recents, fins el 80\% de les persones han canviat la seua decisió final en base a les opinions revisades en la web. Algunes d'aquestes opinions poden ser falses positives, amb la finalitat de promoure un producte, o falses negatives per tal de desacreditarlo. Per a ajudar a resoldre aquest problema es proposa en aquesta tesi un nou mètode de detecció d'opinions falses, anomenat PU-Learning*. Aquest mètode augmenta la precisió mitjançant un algoritme iteratiu i resol el problema de la falta d'opinions etiquetades. Per al funcionament del mètode proposat, s'utilitzen un conjunt reduït d'opinions etiquetades com a falses i un altre conjunt gran d'opinions no etiquetades, del qual se n'extrauen les opinions que faltaven i, així, aconseguir una classificació de dues classes. Aquest tipus d'escenari s'ha convertit en una situació molt comuna en els corpus d'opinions de què es disposa. Com una segona contribució es proposa una representació basada en n-gramas de caràcters. Aquesta representació té l'avantatge de capturar tant elements de contingut com a d'estil d'escriptura, permetent amb això millorar l'efectivitat del mètode proposat en la detecció d'opinions falses. L'avaluació experimental del mètode es va dur a terme mitjançant tres experiments de classificació d'opinions utilitzant dues coleccions diferents. Els resultats obtingut en cada experiment permeten veure l'efectivitat del mètode proposat, així com també les diferències entre la utilització de varis tipus d'atributs. Ja que la falsedat o veracitat de les opinions vessades pels usuaris es converteix en un paràmetre molt important en la presa de decisions, el mètode que ací es presenta pot ser utilitzat en qualsevol corpus on es troben les característiques abans esmentades.Hernández Fusilier, D. (2016). Detección de opinion spam usando PU-learning [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61990TESISCompendi

    New approaches for content-based analysis towards online social network spam detection

    Get PDF
    Unsolicited email campaigns remain as one of the biggest threats affecting millions of users per day. Although spam filtering techniques are capable of detecting significant percentage of the spam messages, the problem is far from being solved, specially due to the total amount of spam traffic that flows over the Internet, and new potential attack vectors used by malicious users. The deeply entrenched use of Online Social Networks (OSNs), where millions of users share unconsciously any kind of personal data, offers a very attractive channel to attackers. Those sites provide two main interesting areas for malicious activities: exploitation of the huge amount of information stored in the profiles of the users, and the possibility of targeting user addresses and user spaces through their personal profiles, groups, pages... Consequently, new type of targeted attacks are being detected in those communication means. Being selling products, creating social alarm, creating public awareness campaigns, generating traffic with viral contents, fooling users with suspicious attachments, etc. the main purpose of spam messages, those type of communications have a specific writing style that spam filtering can take advantage of. The main objectives of this thesis are: (i) to demonstrate that it is possible to develop new targeted attacks exploiting personalized spam campaigns using OSN information, and (ii) to design and validate novel spam detection methods that help detecting the intentionality of the messages, using natural language processing techniques, in order to classify them as spam or legitimate. Additionally, those methods must be effective also dealing with the spam that is appearing in OSNs. To achieve the first objective a system to design and send personalized spam campaigns is proposed. We extract automatically users’ public information from a well known social site. We analyze it and design different templates taking into account the preferences of the users. After that, different experiments are carried out sending typical and personalized spam. The results show that the click-through rate is considerably improved with this new strategy. In the second part of the thesis we propose three novel spam filtering methods. Those methods aim to detect non-evident illegitimate intent in order to add valid information that is used by spam classifiers. To detect the intentionality of the texts, we hypothesize that sentiment analysis and personality recognition techniques could provide new means to differentiate spam text from legitimate one. Taking into account this assumption, we present three different methods: the first one uses sentiment analysis to extract the polarity feature of each analyzed text, thus we analyze the optimistic or pessimistic attitude of spam messages compared to legitimate texts. The second one uses personality recognition techniques to add personality dimensions (Extroversion/Introversion, Thinking/Feeling, Judging/ Perceiving and Sensing/iNtuition) to the spam filtering process; and the last one is a combination of the two previously mentioned techniques. Once the methods are described, we experimentally validate the proposed approaches in three different types of spam: email spam, SMS spam and spam from a popular OSN.Hartzailearen baimenik gabe bidalitako mezuak (spam) egunean milioika erabiltzaileri eragiten dien mehatxua dira. Nahiz eta spam detekzio tresnek gero eta emaitza hobeagoak lortu, arazoa konpontzetik oso urruti dago oraindik, batez ere spam kopuruari eta erasotzaileen estrategia berriei esker. Hori gutxi ez eta azken urteetan sare sozialek izan duten erabiltzaile gorakadaren ondorioz, non milioika erabiltzailek beraien datu pribatuak publiko egiten dituzten, gune hauek oso leku erakargarriak bilakatu dira erasotzaileentzat. Batez ere bi arlo interesgarri eskaintzen dituzte webgune hauek: profiletan pilatutako informazio guztiaren ustiapena, eta erabiltzaileekin harreman zuzena izateko erraztasuna (profil bidez, talde bidez, orrialde bidez...). Ondorioz, gero eta ekintza ilegal gehiago atzematen ari dira webgune hauetan. Spam mezuen helburu nagusienak zerbait saldu, alarma soziala sortu, sentsibilizazio kanpainak martxan jarri, etab. izaki, mezu mota hauek eduki ohi duten idazketa mezua berauen detekziorako erabilia izan daiteke. Lan honen helburu nagusiak ondorengoak dira: alde batetik, sare sozialetako informazio publikoa erabiliz egungo detekzio sistemak saihestuko dituen spam pertsonalizatua garatzea posible dela erakustea; eta bestetik hizkuntza naturalaren prozesamendurako teknikak erabiliz, testuen intentzionalitatea atzeman eta spam-a detektatzeko metodologia berriak garatzea. Gainera, sistema horiek sare sozialetako spam mezuekin lan egiteko gaitasuna ere izan beharko dute. Lehen helburu hori lortzekolan honetan spam pertsonalizatua diseinatu eta bidaltzeko sistema bat aurkeztu da. Era automatikoan erabiltzaileen informazio publikoa ateratzen dugu sare sozial ospetsu batetik, ondoren informazio hori aztertu eta txantiloi ezberdinak garatzen ditugu erabiltzaileen iritziak kontuan hartuaz. Behin hori egindakoan, hainbat esperimentu burutzen ditugu spam normala eta pertsonalizatua bidaliz, bien arteko emaitzen ezberdintasuna alderatzeko. Tesiaren bigarren zatian hiru spam atzemate metodologia berri aurkezten ditugu. Berauen helburua tribialak ez den intentzio komertziala atzeman ta hori baliatuz spam mezuak sailkatzean datza. Intentzionalitate hori lortze aldera, analisi sentimentala eta pertsonalitate detekzio teknikak erabiltzen ditugu. Modu honetan, hiru sistema ezberdin aurkezten dira hemen: lehenengoa analisi sentimentala soilik erabiliz, bigarrena lan honetarako pertsonalitate detekzio teknikek eskaintzen dutena aztertzen duena, eta azkenik, bien arteko konbinazioa. Tresna hauek erabiliz, balidazio esperimentala burutzen da proposatutako sistemak eraginkorrak diren edo ez aztertzeko, hiru mota ezberdinetako spam-arekin lan eginez: email spam-a, SMS spam-a eta sare sozial ospetsu bateko spam-a

    Actas de las VI Jornadas Nacionales (JNIC2021 LIVE)

    Get PDF
    Estas jornadas se han convertido en un foro de encuentro de los actores más relevantes en el ámbito de la ciberseguridad en España. En ellas, no sólo se presentan algunos de los trabajos científicos punteros en las diversas áreas de ciberseguridad, sino que se presta especial atención a la formación e innovación educativa en materia de ciberseguridad, y también a la conexión con la industria, a través de propuestas de transferencia de tecnología. Tanto es así que, este año se presentan en el Programa de Transferencia algunas modificaciones sobre su funcionamiento y desarrollo que han sido diseñadas con la intención de mejorarlo y hacerlo más valioso para toda la comunidad investigadora en ciberseguridad

    Generación de un corpus para detección de competidores en el idioma español mediante minería de opiniones comparativas. Caso de estudio: sector textil en la provincia del Azuay

    Get PDF
    En la actualidad con el avance de la tecnología y más aún con la llegada de la pandemia el uso de las plataformas digitales se ha incrementado. Un estudio presentado por la Cámara de Comercio Electrónico Ecuatoriana del año 2020 demuestra que el comercio electrónico ha incrementado en al menos 15 veces con respecto al 2019 el uso de plataformas digitales online con la llegada de la pandemia. Debido a esto, las empresas para hacer estudios de mercado deben buscar nuevas fuentes de información. Por lo tanto, el internet se ha convertido en un insumo intangible de toda estrategia comercial. Una parte fundamental de una estrategia comercial es analizar a la competencia, este análisis en años anteriores según la literatura se realizaba generalmente mediante encuestas, pero con la llegada de las plataformas digitales ha cambiado este método y hoy por hoy se puede extraer los datos de la web para luego implementar un proceso de Inteligencia Competitiva (CI), la cual permite hacer un análisis completo para tener una ventaja competitiva. CI comprende de varios pasos, esta investigación aborda todos estos pasos, pero se enfoca principalmente en el paso inicial, la recolección y análisis de datos, que es un paso fundamental para CI, donde actualmente existen problemas como: falta de corpus en español especializado para CI, por lo cual los investigadores no tienen la facilidad de implementar modelos de aprendizaje automático que les ayuden a tener una ventaja competitiva. El presente trabajo de investigación presenta una metodología para la creación de un corpus en el idioma español que permita entrenar algoritmos con el fin de realizar detección de competidores en el contexto del sector textil. Se han generado dos resultados principales: 1) Una metodología utilizando técnicas de minería de textos (minería de opiniones comparativas y reconocimiento de entidades nombradas) para construir corpus enfocado hacia la Inteligencia Competitiva. 2) Un corpus en español, dentro del dominio de comentarios de redes sociales, el cual sirve de base para futuras investigaciones relacionadas con la inteligencia competitiva, específicamente en la detección de competidores en el lenguaje español, donde la CI estaba estrictamente restringida por la falta de un corpus. Por último, se ha evaluado la utilidad del corpus desarrollado mediante un Dashboard creado en base a un caso de estudio llevado a cabo en el contexto del sector textil en redes sociales. Se ha demostrado que efectivamente es de utilidad para el sector textil, sin embargo, se recomienda hacer una nueva validación con empresas que estén directamente relacionadas al sector textil y así obtener una validación más directa, también se recomienda evaluar en otros sectores.Currently, with the advancement of technology and even more so with the arrival of the pandemic, the use of digital platforms has increased. A study presented by the Ecuadorian Chamber of Electronic Commerce for the year 2020 shows that electronic commerce has increased the use of online digital platforms by at least 15 times compared to 2019 with the arrival of the pandemic. Due to this, companies to do market research must look for new sources of information. Therefore, the internet has become an intangible input for any business strategy. A fundamental part of a commercial strategy is to analyze the competition, this analysis in previous years according to the literature was generally carried out through surveys, but with the arrival of digital platforms this method has changed and today the data can be extracted from the web to then implement a Competitive Intelligence (CI) process, which allows a complete analysis to have a competitive advantage. CI comprises several steps, this research addresses all these steps, but focuses mainly on the initial step, data collection and data analysis, which is a fundamental step for CI, where there are currently problems such as: lack of corpus in Spanish specialized for CI, so researchers do not have the facility to implement machine learning models that help them to have a competitive advantage. This research presents a methodology for the creation of a corpus in the Spanish language that allows algorithms to be trained in order to detect competitors in the context of the textile sector. Two main results have been generated: 1) A methodology using text mining techniques (comparative opinion mining and named entity recognition) to build a corpus focused on Competitive Intelligence. 2) A corpus in Spanish, within the domain of social network comments, which serves as a basis for future research related to competitive intelligence, specifically in the detection of competitors in the Spanish language, where the CI was strictly restricted by the lack of a corpus. Finally, the usefulness of the corpus developed has been evaluated through a Dashboard created based on a case study carried out in the context of the textile sector in social networks. It has been shown that it is indeed useful for the textile sector, however, it is recommended to carry out a new validation with companies that are directly related to the textile sector and thus obtain a more direct validation, it is also recommended to evaluate in other sectors.Ingeniero de SistemasCuenc

    Jornadas Nacionales de Investigación en Ciberseguridad: actas de las VIII Jornadas Nacionales de Investigación en ciberseguridad: Vigo, 21 a 23 de junio de 2023

    Get PDF
    Jornadas Nacionales de Investigación en Ciberseguridad (8ª. 2023. Vigo)atlanTTicAMTEGA: Axencia para a modernización tecnolóxica de GaliciaINCIBE: Instituto Nacional de Cibersegurida

    Detecting Deception, Partisan, and Social Biases

    Full text link
    Tesis por compendio[ES] En la actualidad, el mundo político tiene tanto o más impacto en la sociedad que ésta en el mundo político. Los líderes o representantes de partidos políticos hacen uso de su poder en los medios de comunicación, para modificar posiciones ideológicas y llegar al pueblo con el objetivo de ganar popularidad en las elecciones gubernamentales.A través de un lenguaje engañoso, los textos políticos pueden contener sesgos partidistas y sociales que minan la percepción de la realidad. Como resultado, los seguidores de una ideología, o miembros de una categoría social, se sienten amenazados por otros grupos sociales o ideológicos, o los perciben como competencia, derivándose así una polarización política con agresiones físicas y verbales. La comunidad científica del Procesamiento del Lenguaje Natural (NLP, según sus siglas en inglés) contribuye cada día a detectar discursos de odio, insultos, mensajes ofensivos, e información falsa entre otras tareas computacionales que colindan con ciencias sociales. Sin embargo, para abordar tales tareas, es necesario hacer frente a diversos problemas entre los que se encuentran la dificultad de tener textos etiquetados, las limitaciones de no trabajar con un equipo interdisciplinario, y los desafíos que entraña la necesidad de soluciones interpretables por el ser humano. Esta tesis se enfoca en la detección de sesgos partidistas y sesgos sociales, tomando como casos de estudio el hiperpartidismo y los estereotipos sobre inmigrantes. Para ello, se propone un modelo basado en una técnica de enmascaramiento de textos capaz de detectar lenguaje engañoso incluso en temas controversiales, siendo capaz de capturar patrones del contenido y el estilo de escritura. Además, abordamos el problema usando modelos basados en BERT, conocidos por su efectividad al capturar patrones sintácticos y semánticos sobre las mismas representaciones de textos. Ambos enfoques, la técnica de enmascaramiento y los modelos basados en BERT, se comparan en términos de desempeño y explicabilidad en la detección de hiperpartidismo en noticias políticas y estereotipos sobre inmigrantes. Para la identificación de estos últimos, se propone una nueva taxonomía con fundamentos teóricos en sicología social, y con la que se etiquetan textos extraídos de intervenciones partidistas llevadas a cabo en el Parlamento español. Los resultados muestran que los enfoques propuestos contribuyen al estudio del hiperpartidismo, así como a identif i car cuándo los ciudadanos y políticos enmarcan a los inmigrantes en una imagen de víctima, recurso económico, o amenaza. Finalmente, en esta investigación interdisciplinaria se demuestra que los estereotipos sobre inmigrantes son usados como estrategia retórica en contextos políticos.[CA] Avui, el món polític té tant o més impacte en la societat que la societat en el món polític. Els líders polítics, o representants dels partits polítics, fan servir el seu poder als mitjans de comunicació per modif i car posicions ideològiques i arribar al poble per tal de guanyar popularitat a les eleccions governamentals. Mitjançant un llenguatge enganyós, els textos polítics poden contenir biaixos partidistes i socials que soscaven la percepció de la realitat. Com a resultat, augmenta la polarització política nociva perquè els seguidors d'una ideologia, o els membres d'una categoria social, veuen els altres grups com una amenaça o competència, que acaba en agressions verbals i físiques amb resultats desafortunats. La comunitat de Processament del llenguatge natural (PNL) té cada dia noves aportacions amb enfocaments que ajuden a detectar discursos d'odi, insults, missatges ofensius i informació falsa, entre altres tasques computacionals relacionades amb les ciències socials. No obstant això, molts obstacles impedeixen eradicar aquests problemes, com ara la dif i cultat de tenir textos anotats, les limitacions dels enfocaments no interdisciplinaris i el repte afegit per la necessitat de solucions interpretables. Aquesta tesi se centra en la detecció de biaixos partidistes i socials, prenent com a cas pràctic l'hiperpartidisme i els estereotips sobre els immigrants. Proposem un model basat en una tècnica d'emmascarament que permet detectar llenguatge enganyós en temes polèmics i no polèmics, capturant pa-trons relacionats amb l'estil i el contingut. A més, abordem el problema avaluant models basats en BERT, coneguts per ser efectius per capturar patrons semàntics i sintàctics en la mateixa representació. Comparem aquests dos enfocaments (la tècnica d'emmascarament i els models basats en BERT) en termes de rendiment i les seves solucions explicables en la detecció de l'hiperpartidisme en les notícies polítiques i els estereotips d'immigrants. Per tal d'identificar els estereotips dels immigrants, proposem una nova tax-onomia recolzada per la teoria de la psicologia social i anotem un conjunt de dades de les intervencions partidistes al Parlament espanyol. Els resultats mostren que els nostres models poden ajudar a estudiar l'hiperpartidisme i identif i car diferents marcs en què els ciutadans i els polítics perceben els immigrants com a víctimes, recursos econòmics o amenaces. Finalment, aquesta investigació interdisciplinària demostra que els estereotips dels immigrants s'utilitzen com a estratègia retòrica en contextos polítics.[EN] Today, the political world has as much or more impact on society than society has on the political world. Political leaders, or representatives of political parties, use their power in the media to modify ideological positions and reach the people in order to gain popularity in government elections. Through deceptive language, political texts may contain partisan and social biases that undermine the perception of reality. As a result, harmful political polarization increases because the followers of an ideology, or members of a social category, see other groups as a threat or competition, ending in verbal and physical aggression with unfortunate outcomes. The Natural Language Processing (NLP) community has new contri-butions every day with approaches that help detect hate speech, insults, of f ensive messages, and false information, among other computational tasks related to social sciences. However, many obstacles prevent eradicating these problems, such as the dif f i culty of having annotated texts, the limitations of non-interdisciplinary approaches, and the challenge added by the necessity of interpretable solutions. This thesis focuses on the detection of partisan and social biases, tak-ing hyperpartisanship and stereotypes about immigrants as case studies. We propose a model based on a masking technique that can detect deceptive language in controversial and non-controversial topics, capturing patterns related to style and content. Moreover, we address the problem by evalu-ating BERT-based models, known to be ef f ective at capturing semantic and syntactic patterns in the same representation. We compare these two approaches (the masking technique and the BERT-based models) in terms of their performance and the explainability of their decisions in the detection of hyperpartisanship in political news and immigrant stereotypes. In order to identify immigrant stereotypes, we propose a new taxonomy supported by social psychology theory and annotate a dataset from partisan interventions in the Spanish parliament. Results show that our models can help study hyperpartisanship and identify dif f erent frames in which citizens and politicians perceive immigrants as victims, economic resources, or threat. Finally, this interdisciplinary research proves that immigrant stereotypes are used as a rhetorical strategy in political contexts.This PhD thesis was funded by the MISMIS-FAKEnHATE research project (PGC2018-096212-B-C31) of the Spanish Ministry of Science and Innovation.Sánchez Junquera, JJ. (2022). Detecting Deception, Partisan, and Social Biases [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185784Compendi

    El impacto de los sistemas de recomendación en la propagación de la desinformación en redes sociales

    Full text link
    En los últimos años, la expansión de los teléfonos móviles inteligentes ha provocado una explosión en el consumo de servicios en Internet. Con este aumento del consumo ha dado lugar la aparición de una gran cantidad de portales de noticias que ahora realizan el trabajo que antes hacían unos pocos medios tradicionales, a su vez, las redes sociales han adquirido una mayor importancia a la hora de conocer e incluso influenciar en la opinión popular. A simple vista, este aumento de la competitividad provocada por el hecho de que cualquier persona pueda competir como medio de información, parece un punto positivo. Sin embargo, también crece la cantidad de intentos de generar noticias desinformativas con el objetivo de viralizar un relato alternativo y, junto con las redes sociales como herramientas de difusión, manipular la opinión de los usuarios, ya sea para un beneficio económico o político. Con lo cual, en este Trabajo Final de Máster, basándose en la idea de que los sistemas de recomendación de estas redes sociales son los encargados de ofrecer las noticias a los usuarios, se propone estudiar si la recomendación es la principal responsable de viralizar la es información además de conocer el nivel de impacto que tiene, en concreto, se plantea analizar qué algoritmos de recomendación son más propensos a devolver dicha desinformación. Para ello, se ha creado una base de datos haciendo uso de noticias provenientes de una agencia verificadora, Politifact, junto a la interacción de usuarios en una red social (Twitter), que comentan estas noticias. Tras esto, se ha usado dicha base de datos, formada por contenido informativo y desinformativo, para recomendar usando un amplio catálogo de algoritmos: no personalizados (aleatorio y más popular), basados en vecinos próximos, en factorización de matrices y en redes neuronales. Como conclusión, se ha comprobado que hay ciertos algoritmos donde la cantidad de desinformación que recomiendan está muy ligada con la existente en los datos de entrenamiento, este es el caso de la recomendación basada en popularidad. En general, no se ha encontrado una técnica que desinforme menos que el resto en cualquier situación, pero sí se ha realizado un estudio preliminar razonablemente completo como para conocer qué métodos de recomendación son más aconsejables según la desinformación existente en los dato

    Resúmenes de la II Conferencia Internacional de Comunicación en Salud. Investigación, Bienestar y Salud. 23 Octubre 2015, Madrid, España

    Get PDF
    Libro de resúmenes de los trabajos presentados en la Segunda Conferencia Internacional de Comunicación en Salud, celebrada el 23 de octubre de 2015 en la Universidad Carlos III de Madri

    The versatile troll

    Get PDF
    Trabajo de Fin de Grado en Ingeniería Informática, Facultad de Informática UCM, Departamento de Sistemas Informáticos y Computación, Curso 2021/2022Las distintas redes sociales ofrecen cada vez mejores herramientas para la automatización de la interacción de los usuarios. Así el mercado de interacciones en redes sociales es cada vez es más amplio y tiene más competencia. En este contexto se hace necesario el uso de herramientas para la automatización de las interacciones en redes sociales que sean diferenciales. El fin de este trabajo es ofrecer un servicio para la creación de redes de bots que interaccionen automáticamente con cuentas de la red social Twitter de forma configurable y personalizada para cada cliente. La interacción debe ser coherente y difícilmente distinguible de la que realizaría un usuario real.The social networks offer every day better tools for automating user interaction. Therefore, the market of social network interactions is becoming larger and larger each day. In this context it is necessary to use tools for the automation of interactions in social networks that are differential. The purpose of this project is to offer a service for the creation of bot networks that automatically interact with accounts of the social network Twitter in a configurable and personalized way for each client. The interaction must be coherent and hardly distinguishable from what a real user would do.Depto. de Sistemas Informáticos y ComputaciónFac. de InformáticaTRUEunpu
    corecore