38 research outputs found
Dehumanization, Hate Speech, and Violence in Right-Wing Extremist Environments
On November 24, 2021, Dr. Lisa Kaati, senior researcher at the Swedish Defence Research Agency, presented Dehumanization, Hate Speech, and Violence in Right-Wing Extremist Environments at the 2021 CASIS West Coast Security Conference. The presentation was followed by a group panel for questions and answers. Main discussion topics included extremistsâ use of social media to justify and incite violence
Reduction Techniques for Finite (Tree) Automata
Finite automata appear in almost every branch of computer science, for example in model checking, in natural language processing and in database theory. In many applications where finite automata occur, it is highly desirable to deal with automata that are as small as possible, in order to save memory as well as excecution time. Deterministic finite automata (DFAs) can be minimized efficiently, i.e., a DFA can be converted to an equivalent DFA that has a minimal number of states. This is not the case for non-deterministic finite automata (NFAs). To minimize an NFA we need to compute the corresponding DFA using subset construction and minimize the resulting automaton. However, subset construction may lead to an exponential blow-up in the size of the automaton and therefore even if the minimal DFA may be small, it might not be feasible to compute it in practice since we need to perform the expensive subset construction. To aviod subset construction we can reduce the size of an NFA using heuristic methods. This can be done by identifying and collapsing states that are equal with respect to some suitable equivalence relation that preserves the language of the automaton. The choice of an equivalence relation is a trade-off between the desired amount of reduction and the computation time since the coarser a relation is, the more expensive it is to compute. This way we obtain a reduction method for NFAs that is useful in practice. In this thesis we address the problem of reducing the size of non-deterministic automata. We consider two different computation models: finite tree automata and finite automata. Finite automata can be seen as a special case of finite tree automata and all of the previously mentioned results concerning finite automata are applicable to tree automata as well. For non-deterministic bottom-up tree automata, we present a broad spectrum of different relations that can be used to reduce their size. The relations differ in their computational complexity and reduction capabilities. We also provide efficient algorithms to compute the relations where we translate the problem of computing a given relation on a tree automaton to the problem of computing the relation on a finite automaton. For finite automata, we have extended and re-formulated two algorithms for computing bisimulation and simulation on transition systems to operate on finite automata with alphabets. In particular, we consider a model of automata where the labels are encoded symbolically and we provide an algorithm for computing bisimulation on this partial symbolic encoding
Reduction Techniques for Finite (Tree) Automata
Finite automata appear in almost every branch of computer science, for example in model checking, in natural language processing and in database theory. In many applications where finite automata occur, it is highly desirable to deal with automata that are as small as possible, in order to save memory as well as excecution time. Deterministic finite automata (DFAs) can be minimized efficiently, i.e., a DFA can be converted to an equivalent DFA that has a minimal number of states. This is not the case for non-deterministic finite automata (NFAs). To minimize an NFA we need to compute the corresponding DFA using subset construction and minimize the resulting automaton. However, subset construction may lead to an exponential blow-up in the size of the automaton and therefore even if the minimal DFA may be small, it might not be feasible to compute it in practice since we need to perform the expensive subset construction. To aviod subset construction we can reduce the size of an NFA using heuristic methods. This can be done by identifying and collapsing states that are equal with respect to some suitable equivalence relation that preserves the language of the automaton. The choice of an equivalence relation is a trade-off between the desired amount of reduction and the computation time since the coarser a relation is, the more expensive it is to compute. This way we obtain a reduction method for NFAs that is useful in practice. In this thesis we address the problem of reducing the size of non-deterministic automata. We consider two different computation models: finite tree automata and finite automata. Finite automata can be seen as a special case of finite tree automata and all of the previously mentioned results concerning finite automata are applicable to tree automata as well. For non-deterministic bottom-up tree automata, we present a broad spectrum of different relations that can be used to reduce their size. The relations differ in their computational complexity and reduction capabilities. We also provide efficient algorithms to compute the relations where we translate the problem of computing a given relation on a tree automaton to the problem of computing the relation on a finite automaton. For finite automata, we have extended and re-formulated two algorithms for computing bisimulation and simulation on transition systems to operate on finite automata with alphabets. In particular, we consider a model of automata where the labels are encoded symbolically and we provide an algorithm for computing bisimulation on this partial symbolic encoding
Samtalstonen i sociala medier
Lisa Kaati diskuterar hur man med hjÀlp av nya tekniker kan identifiera toxiskt sprÄk för att skapa en mer anstÀndig samtalston pÄ sociala medier. Hon konstaterar att internet erbjuder fantastiska möjligheter för alla att delta i diskussioner nÀr som helst och om vad som helst. Men alltför ofta prÀglas samtalsklimatet av toxiskt sprÄk. Begreppet anvÀnds för att beskriva kommunikation som förgiftar samtalsklimatet i sociala medier. Det kan vara kommunikation som Àr förbjuden i lag (hets mot folkgrupp, förtal) men ocksÄ andra former av krÀnkningar som nedsÀttande tilltal, respektlöshet eller integritetskrÀnkningar. Att upprepade gÄnger utsÀttas för toxiska kommentarer innebÀr en oerhörd pÄfrestning och kan leda till att man vÀljer att dra sig tillbaka frÄn det offentliga samtalet. Det kan i sin tur innebÀra att vissa röster tystnar och att de mer lÄgmÀlda och diskuterandesamtalen försvinner. PÄ mÄnga av de stora sociala medieplattformarna finns anvÀndarvillkor som förbjuder viss typ av kommunikation men det finns ocksÄ en stor mÀngd plattformar som inte har nÄgra regler för vad som fÄr publiceras sÄ lÀnge det inte bryter mot nÄgon lag. Eftersom mÄnga av dessa plattformar finns i USA Àr det amerikansk lag som gÀller.För att hantera mÀngden av kommunikation har nya tekniker utvecklats för att identifiera toxiskt sprÄk automatiskt. Dessa tekniska lösningar bygger pÄ olika typer av textanalys. Det sker frÀmst genom maskininlÀrningsbaserade tekniker dÀr datorn sjÀlv lÀr sig att kÀnna igen toxiskt sprÄk. Det krÀver i sin tur tillrÀckligt mÄnga och varierade exempel pÄ vad som Àr toxiskt sprÄk. Idag anvÀnder mÄnga sociala medieplattformar automatiserade tekniker för att hitta inlÀgg i kommentarsfÀlt som inte följer anvÀndarreglerna. Det har Àven tagits fram andra verktyg som gör det möjligt att undvika toxiska kommentarer genom att dölja dem eller att varna/förmana den som skriver genom att markera innehÄll som kan uppfattas som toxiskt och vara konfliktdrivande.Lisa Kaati framhÄller att automatiserade tekniker Àr nödvÀndiga i vÄrt digitala samhÀlle för att det ska vara möjligt att identifiera toxiskt sprÄk. Samtidigt finns det ett stort behov av att utveckla och förfina metoderna. Vidare krÀvs medvetenhet om metodernas begrÀnsningar samt om betydelsen av att anvÀnda dem pÄ ett ansvarsfullt och etiskt sÀtt
Samtalstonen i sociala medier
Lisa Kaati diskuterar hur man med hjÀlp av nya tekniker kan identifiera toxiskt sprÄk för att skapa en mer anstÀndig samtalston pÄ sociala medier. Hon konstaterar att internet erbjuder fantastiska möjligheter för alla att delta i diskussioner nÀr som helst och om vad som helst. Men alltför ofta prÀglas samtalsklimatet av toxiskt sprÄk. Begreppet anvÀnds för att beskriva kommunikation som förgiftar samtalsklimatet i sociala medier. Det kan vara kommunikation som Àr förbjuden i lag (hets mot folkgrupp, förtal) men ocksÄ andra former av krÀnkningar som nedsÀttande tilltal, respektlöshet eller integritetskrÀnkningar. Att upprepade gÄnger utsÀttas för toxiska kommentarer innebÀr en oerhörd pÄfrestning och kan leda till att man vÀljer att dra sig tillbaka frÄn det offentliga samtalet. Det kan i sin tur innebÀra att vissa röster tystnar och att de mer lÄgmÀlda och diskuterandesamtalen försvinner. PÄ mÄnga av de stora sociala medieplattformarna finns anvÀndarvillkor som förbjuder viss typ av kommunikation men det finns ocksÄ en stor mÀngd plattformar som inte har nÄgra regler för vad som fÄr publiceras sÄ lÀnge det inte bryter mot nÄgon lag. Eftersom mÄnga av dessa plattformar finns i USA Àr det amerikansk lag som gÀller.För att hantera mÀngden av kommunikation har nya tekniker utvecklats för att identifiera toxiskt sprÄk automatiskt. Dessa tekniska lösningar bygger pÄ olika typer av textanalys. Det sker frÀmst genom maskininlÀrningsbaserade tekniker dÀr datorn sjÀlv lÀr sig att kÀnna igen toxiskt sprÄk. Det krÀver i sin tur tillrÀckligt mÄnga och varierade exempel pÄ vad som Àr toxiskt sprÄk. Idag anvÀnder mÄnga sociala medieplattformar automatiserade tekniker för att hitta inlÀgg i kommentarsfÀlt som inte följer anvÀndarreglerna. Det har Àven tagits fram andra verktyg som gör det möjligt att undvika toxiska kommentarer genom att dölja dem eller att varna/förmana den som skriver genom att markera innehÄll som kan uppfattas som toxiskt och vara konfliktdrivande.Lisa Kaati framhÄller att automatiserade tekniker Àr nödvÀndiga i vÄrt digitala samhÀlle för att det ska vara möjligt att identifiera toxiskt sprÄk. Samtidigt finns det ett stort behov av att utveckla och förfina metoderna. Vidare krÀvs medvetenhet om metodernas begrÀnsningar samt om betydelsen av att anvÀnda dem pÄ ett ansvarsfullt och etiskt sÀtt
SÄ vanligt Àr toxiskt sprÄk i svenska sociala medier
Ăven om internet erbjuder fantastiska möjligheter för alla att delta i diskussioner nĂ€r som helst och var som helst sĂ„ finns det ocksĂ„ baksidor. Ett exempel Ă€r nĂ€r samtalsklimatet blir infekterat av toxiskt sprĂ„k.
SÄ vanligt Àr toxiskt sprÄk i svenska sociala medier
Ăven om internet erbjuder fantastiska möjligheter för alla att delta i diskussioner nĂ€r som helst och var som helst sĂ„ finns det ocksĂ„ baksidor. Ett exempel Ă€r nĂ€r samtalsklimatet blir infekterat av toxiskt sprĂ„k.
Vem Àr det som hatar pÄ nÀtet?
Nazar Akrami och Lisa Kaati beskriver utifrÄn psykologisk forskning vad som utmÀrker de personer som hatar pÄ nÀtet. De konstaterar att nÀthat kan ses som ett sÀtt att ge uttryck för fördomar, det vill sÀga att nedvÀrdera en individ utifrÄn dennes grupptillhörighet. Fördomsfullhet kan förklaras utifrÄn faktorer som har med individens omgivning att göra, som grupptillhörighet och stereotypa uppfattningar om en grupp eller individ. Dock kan nÀrvaron av en social norm mot fördomsfullhet bidra till att blockera utrymmet att utrycka fördomar Àven om individen inte blir mindre fördomsfull i sitt tankesÀtt. Fördomar kan ocksÄ förklaras utifrÄn individens personlighet. HÀr finns forskning som visar att individer med lÄg grad av öppenhet, vÀnlighet och utÄtriktning har större benÀgenhet att nedvÀrdera individer som inte tillhör den egna gruppen, sÀrskilt minoritetsgrupper ellergrupper med lÄg social status. Forskning visar Àven att individer som skriver hatkommentarer kÀnnetecknas av en hög grad av mörk personlighet, ett samlingsnamn för egenskaper som bristande empatisk förmÄga, manipulerande, narcissism och cynism.Det Àr endast en liten del av alla internetanvÀndare som hotar, hatar och krÀnker och endast ett fÄtal individer som stÄr för den allra största delen av de hatiska kommentarerna. En majoritet av dem som ligger bakom hatkommentarer i digitala miljöer verkar vara medelÄlders eller Àldre mÀn. NÀr forskare sökt analysera personligheten hos personer som skriver texter med hatfulla kommentarer visade det att de hade signifikant lÀgre medelvÀrden i vÀnlighet, öppenhet och utÄtriktning och att de hade större likheter med varandra Àn med de som inte uttryckte hat. Resultaten kan tyckas nedslÄende eftersom förekomsten av fördomar och stereotypa uppfattningar Àr vanliga Àven utanför nÀtet och eftersom det Àr svÄrt att förÀndra mÀnniskors personlighet. Men Nazar Akrami och Lisa Kaati konstaterar samtidigt att det Àr en förhÄllandevis liten grupp som ligger bakom flertalet hatfulla kommentar. Man knyter ocksÄ förhoppningar till de tekniska metoder som kan göra en hel del digitala miljöer relativt fria frÄn hat. Men framför allt lyfter de betydelsen av att Àven söka etablera normer som vi har i den fysiska vÀrlden i det digitala rummet. En av orsakerna till att trakasserier ofta sker pÄ sociala medier och nÀtforum Àr den anonymitet som mÄnga av dessa forum erbjuder. Det gör att man kan ÄsidosÀtta sociala normeroch sÀga mer extrema saker Àn vad man skulle göra ansikte mot ansikte. En stark social norm skulle med stor sannolikhet bidra till att höja tröskeln för att uttrycka hat och hot och bidra till att minska betydelsen av andra komponenter, som grupptillhörighet, personlighet och stereotypa uppfattningar