10 research outputs found

    How Users can Solve the Trust Problem in the Digital Age

    Get PDF
    The digital age has brought new changes to both the production and dissemination of information, and these changes are both positive and negative. This paper focuses on the trust problems in information that has arisen in the digital age, analyses the problem of disinformation and the weakening influence of opinion leaders in the Internet environment from the perspective of users, and makes suggestions for improvement

    Misinformation Containment Using NLP and Machine Learning: Why the Problem Is Still Unsolved

    Get PDF
    Despite the increased attention and substantial research into it claiming outstanding successes, the problem of misinformation containment has only been growing in the recent years with not many signs of respite. Misinformation is rapidly changing its latent characteristics and spreading vigorously in a multi-modal fashion, sometimes in a more damaging manner than viruses and other malicious programs on the internet. This chapter examines the existing research in natural language processing and machine learning to stop the spread of misinformation, analyzes why the research has not been practical enough to be incorporated into social media platforms, and provides future research directions. The state-of-the-art feature engineering, approaches, and algorithms used for the problem are expounded in the process

    Fake or Credible? Towards Designing Services to Support Users’ Credibility Assessment of News Content

    Get PDF
    Fake news has become omnipresent in digitalized areas such as social media platforms. While being disseminated online, it also poses a threat to individuals and societies offline, for example, in the context of democratic elections. Research and practice have investigated the detection of fake news with behavioral science or method-related perspectives. However, to date, we lack design knowledge on presenting fake news warnings to users to support their individual news credibility assessment. We present the journey through the first design cycle on developing a fake news detection service focusing on the user interface design. The design is grounded in concepts from the field of source credibility theory and instantiated in a prototype that was qualitatively evaluated. The 13 participants communicated their interest in a lightweight application that aids in the news credibility assessment and rated the design features as useful as well as desirable

    O ovo da serpente cibernético: um alerta baseado na análise do discurso de atores expressivos da ultradireita mundial, via redes sociais, com destaque para o Twitter

    Get PDF
    O presente trabalho objetiva alertar para o poder do discurso e o grande risco à democracia, que este pode trazer, frente a franca ascensão da extrema-direita, do discurso fascista e neonazista. O alerta resta alicerçado por bases teóricas, da antiguidade clássica ao séc XXI. A intertextualidade, explicita no título, remete à obra ficcional de Ingmar Bergman, “O ovo da serpente” (“Das Schlangenei”, em alemão e “The Serpent's Egg”, em inglês), haja vista que ambas compartilham uma abordagem temática - o potencial estabelecimento do mal, crescendo na sociedade, sorrateiramente. Através do discurso de ódio e da intolerância, proferidos por agentes políticos da extrema direita mundial, este eixo vem ganhando destaque e apoio; principalmente, pela utilização da máquina de Propaganda, assim como fez o partido nazista de Joseph Goebbels e Adolf Hitler. Analisa-se uma Propaganda atualizada e revolucionada pelos avanços da TIC (Tecnologia da Informação e Comunicação). Com o advento da Web 2.0, o poder dos discursos extremistas foi amplificado, passou a ter alcance global, multimodal, multidirecional. Reforça-se o alerta, pois, com uma abordagem acerca da interação mediada pelas plataformas digitais, suas Redes Sociais (RSs), em especial, o Twitter. Faz-se uma revisão da literatura sobre o tema e sobre o o uso das novas ferramentas tecnológicas, que potencializam os poderes nefastos do discurso extremista, nas RSs – como a utilização dos robôs e os ciberataques. Segue-se com a revisão da literatura, que ocupa-se dos discursos de ódio, da intolerância e do extremismo (com exemplos de postagens presentes no Corpus), acompanhados pelas políticas de uso do Twitter e a aplicação das regras deste. A aplicabilidade das leis, pelo mundo, é o tema da última seção; destaca-se nesta, a ocorrência de sansões a Donald J. Trump, como consequências das postagens que este proferiu no dia 6 de Janeiro de 2021, incitando a violência e culminando na invasão ao Capitólio. Encerra-se o trabalho com as considerações finais do alerta e levanta-se a possibilidade de futuras publicações, como um desdobramento da monografia proposta

    Text mining aplicado à gestão de fundos públicos

    Get PDF
    Este trabalho tem como objetivo analisar documentos textuais submetidos por empresas portuguesas no momento de candidatura a programas de incentivos empresariais públicos. Com esta análise pretende-se extrair e selecionar variáveis relevantes, presentes nos textos, que possuam poder preditivo em relação a futuras ações das empresas candidatas aceites, no decorrer dos projetos. O objetivo concreto é a predição da anulação de projetos com fundos atribuídos, durante a sua duração prevista. Para realizar esta análise foi necessário criar uma cadeia de classificação de texto na qual são aplicadas variadas técnicas de processamento da língua natural, extração e seleção de variáveis, seleção e utilização de classificadores, e métricas de avaliação dos resultados. Foram utilizadas técnicas de referência de extração de variáveis como a extração de valores TF e TF-IDF e foram igualmente levadas a cabo experiências de extração de variáveis baseadas em geração de tópicos, análise de similaridade textual, análise de diversidade lexical, exploração de vocabulário específico, entre outros tipos de análise do conteúdo textual. A exploração de variáveis criadas a partir destas experiências mostra-nos características escondidas nos dados, como por exemplo, o facto de se verificar uma maior incidência de projetos com elevados níveis de similaridade em certos distritos do país. O principal objetivo foi alcançar o melhor desempenho possível nas métricas obtidas através da matriz de confusão (taxa de acerto; precisão; cobertura; F1-Score) na predição da anulação de projetos. Os melhores resultados da predição de anulação foram obtidos por um conjunto de variáveis provenientes de diversos métodos de extração e utilizando o algoritmo Classificador Naïve Bayes: 79% de taxa de acerto; 77% de precisão; 71% de cobertura; 74% de F1-Score. Neste trabalho é assim demonstrado o proveito da mistura de variáveis provenientes de diferentes métodos de extração de variáveis.This work aims to analyze the textual documents presented by Portuguese companies when applying for business incentive programs. This work intends to extract and select relevant features, present in the texts, which have predictive power in relation to future actions of the companies whose projects were accepted, during the projects. The concrete goal is the prediction of the cancellation of the projects with allocated funds, during their expected duration. It was necessary to create a text classification pipeline which applies natural language processing, various features extraction and selection techniques, classification algorithms and evaluation metrics. Many feature extraction techniques were used, such as classical techniques as TF and TF-IDF values generation, as also other experiments as topic generation, similarity analysis, lexical analysis, identification of specific vocabulary used, among other analysis of textual content that were also carried out. The feature analysis can show us hidden characteristics in the data, such as the fact that there is a preponderance of projects with high levels of similarity in certain districts of the country. The main objective, regarding the perdition of cancellation of the projects, was achieving the best possible performance, for that there were used the confusion matrix metrics (accuracy; precision; revocation; F1-Score). The best prediction results were obtained by a set of features from different extraction methods together with the use of the Naïve Bayes Classifier algorithm: 79% accuracy; 77% precision; 71% recall; 74% F1-Score. Therefore, it is shown the advantages of mixing features from different extraction methods on this text classification application

    Detektovanje manipulacije u video snimcima stvorenih „deepfake“ tehnikom sistemom učenja prostorno vremenskih karakteristika

    Get PDF
    U ovoj disertaciji analizirali smo i radili komparaciju metoda za preciznije i tačnije detektovanje manipulisanih video materijala uz pomoć Deepfake tehnike. Istraživanje je započeto analizom prethodnih modela predviđenih za detekciju manipulacije video materijala kroz Deepfake tehniku. Analizirani su prethodno obučeni modli i njihovi parametri. Analizirani prethodno obučeni modeli su XceptionNet, EfficientNetB i EfficientNetV. Parametri ovih modela koji su menjani u procesu preobučavanja su konfiguracija mreže SingleDLCNN, broj fold-ova kao i vrednost za Hold-out tehniku. Korišćen je DataSet sa preko 6000 datoteka od kojih je većina datoteka korišćena za treniranje neuronske mreže a ostale datoteke su korišćene za testiranje i validaciju. Za izdvajanje najboljih rezultata korišćen je CV (Cross-Validation), a tačnost istih je uvećana tehnikom težinskog usrednjavanja tj. optimizacijom težine. Prikazani su rezultati za sva tri obučena modela, a najbolji rezultat je ostvaren uz pomoć EfficientNetbB4. 96.8% (FAR = 5.97%). Smatramo da je postignutim rezultatom dokazan kvalitet metode učenja. Za budući rad planiramo unapređenje modela i eventualnu komercijalizaciju
    corecore