2,110 research outputs found
e-politics. Diagnostica per immagini: la comuni- cazione politica in Web of Science e Scopus
Se dovessimo condensare in una sola espressione il precipitato teorico di alcuni decenni di ricerca sulla comunicazione politica allora basterebbe affermare che la
«politica è comunicazione». Lo dimostra senza alcun dubbio non solo la quantità di pubblicazioni nel campo, ma anche il loro addensarsi man mano che il mediascape è andato
definendosi nel tempo. Dai principali manuali abbiamo infatti imparato che i percorsi della democrazia e quelli della comunicazione sono sempre stati paralleli, binari di un treno su cui ha viaggiato la politica. Tutta. Quella della propaganda come quella del risveglio dell’opinione pubblica. Il paradigma ha infatti un suo ineludibile corollario: «la comunicazione è politica». Così i binari tengono insieme l’utilizzo delle strategie di comunicazione per la costruzione del consenso, e per la gestione del potere, con l’emancipazione della parola dalle vecchie mediazioni e la natura profondamente politica che l’espressione dell’opinione assume nell’epoca dei social media. In questo numero, che punta a mettere a fuoco lo stato dell’arte della disciplina, la rubrica cerca di fare emergere questa evoluzione nella produzione scientifica, attraverso l’uso di alcuni dei più utilizzati tool di ricerca bibliometrica a disposizione. Si tratta di un primo esercizio, rispetto al quale è opportuno specificare alcuni elementi di metodo
Big data. Big challenges
Una quindicina di anni fa Doug Laney (2001) si trovò a definire uno scenario
emergente in cui – grazie alla crescente potenza di calcolo delle macchine – grandi mole
di dati potevano essere messe insieme ed analizzate per rispondere più efficacemente alle
nostre domande. Laney, senza nemmeno utilizzare il concetto di big data, evidenziava nel
Volume (la massa dei dati), nella Velocity (di creazione e trasmissione) e nella Variety (delle
fonti di informazioni) le caratteristiche costitutive di queste nuove grandi basi di dati. Solo
di recente, alle ormai famose 3V se ne è aggiunta un’altra, la Veracity, vale a dire la qualitÃ
dei dati. Questo significa che l’inclusione nelle analisi empiriche di base di dati eterogenee,
anche se grandi, comunque solleva domande sulla completezza e l’accuratezza dei dati
raccolti. Tanto più se questi vengono restituiti al pubblico in forma di visualizzazioni ed
infografiche più o meno spettacolari.
L’uso di questi dispositivi per finalità di comunicazione è ormai enorme. In
politica possono servire come strumento di fact-checking ad uso e consumo dell’opinione
pubblica o come forme di persuasione più o meno occulta, per dare legittimità a politiche
cosiddette evidence-based o per strategie di profilazione utenti.
Le risorse che presentiamo in questa rubrica vanno interpretate come esempi
d’uso, manifestazioni della potenza di calcolo da un lato e dell’idea – probabilmente sbagliata
– che avere a che fare con i dati incrementi in qualche modo la nostra capacità di
scelta razionale
e-government: rotte, dirottamenti e naufragi (doi:
La pubblicazione in agosto del report E-Government Survey è stata l’occasione
per riprendere le fila di un dibattito sull’e-government che – senza tema di smentita – ha
subito negli ultimi anni una brusca battuta di arresto. Lo stato di crisi economica in cui
versa l’Europa ormai da diversi anni ha cambiato l’ordine delle priorità dei governi per dare
maggiore enfasi a politiche strutturali sul piano finanziario. Eppure, il dibattito scientifico
sul governo elettronico non ha mai smesso di evidenziare la possibilità che proprio dalle politiche
di miglioramento dei servizi, di razionalizzazione della burocrazia facilitata dall’introduzione
delle ICT a tutti i livelli gestionali e decisionali potesse generarsi quell’effetto di
leapfrogging che, per molti paesi, poteva addirittura rappresentare il salto a piè pari di interi
stadi di sviluppo per passare da economie tradizionali ad economie digitali, bypassando così
la fase dell’industrializzazione pesante. In altre parole, c’era un potenziale nelle politiche di
governo elettronico che è rimasto sostanzialmente inespresso. A partire dal report citato,
la rubrica fa una breve disamina delle iniziative che a livello europeo ed italiano hanno
l’obiettivo di sostenere le politiche per l’agenda digitale, nella speranza che queste non
restino, appunto, solo in agenda
Le primarie presidenziali americane
Il nastro di partenza delle primarie americane è tagliato. Fino all’8 novembre
di quest’anno i riflettori di tutto il mondo saranno puntati sulla campagna presidenziale.
Grandi preparativi, dunque, per seguire l’evento della politica americana che sa più di
pluralismo. A giochi fatti, la campagna si restringerà ai due soli candidati selezionati
per i partiti in lizza. Anche se la presenza di un terzo incomodo con cui fare i conti può
rendere – come accaduto in passato – sia le primarie che la campagna elettorale eventi
decisamente più competitivi.
Di questo, le testate che fanno informazione politica son ben consapevoli ed è
per questo che si predispongono per una horce race ad alzo zero fra i candidati del partito
repubblicano – i più gettonati dei quali sono Donald Trump, Jeb Bush, Marco Rubio e Ben
Carson – e i candidati del partito democratico, con in testa Hillary Clinton, contro la quale
solo Bernie Sanders e Martin O’Malley hanno deciso di candidarsi per la nomination presidenziale.
A complicare ulteriormente il quadro, Michael Bloomberg, ex sindaco di New York
nonché magnate dei media, che potrebbe scendere in campo da indipendente.
Le questioni economiche sono ovviamente il cuore della primarie. A questo
Politico.com dedica la sezione The Politico Caucus, facendo il benchmarking dei candidati in
relazione ai diversi temi della campagna per la nomination. Mentre il New York Times, oltre
ad uno spazio di approfondimenti, dedica una sezione dinamica a dati e infografiche su ciascun
caucus, numero di delegati, voti e risultati finali aggregati e non, sia attuali che delle
passate primarie, incrociati con dati demografici aggiornati. Un modo anche divertente per
osservare le nomination da molto vicino
Post-verità e fact checking: la nuova frontiera dell’informazione politica
Molto clamore mediatico ha suscitato la decisione dell’Oxford Dictionary di
dedicare al concetto di post-verità una specifica definizione e l’onore di rappresentare la
parola dell’anno 2016. Definita dal giornalista del Telegraph, Neil Midgley, come un’espressione
«che denota circostanze nelle quali i fatti oggettivi sono meno influenti nel formare
l’opinione pubblica degli appelli alle emozioni o alle credenze personali», l’espressione circola
da quasi una decina di anni, ma l’Oxford Dictionary ha rilevato un’impennata del suo
uso durante due eventi precisi: il referendum sul Brexit e le elezioni presidenziali americane.
La post-verità trova terreno fertile nel combinato disposto di frammentazione delle fonti
di informazione e diffusione dei social network, un mix micidiale per la diffusione incontrollata
di notizie false create ad arte per ottenere un particolare effetto (ie. polarizzare
l’opinione pubblica, diffondere un clima di sfiducia, inasprire l’ostilità nei confronti della
politica o di particolari gruppi sociali)
Heidegger and Lacan
Lacanian psychoanalysis cannot disregard its debts to philosophy, especially continental philosophy. Lacan’s conception of language is derived from multiple philosophical sources (i.e., Plato, Aristotle, Kant, Hegel, Kierkegaard) including Heidegger’s philosophy of language and pride of place. Heidegger’s view of language prepares the ground for reversing the relationship between language and human beings, overcoming common sense about language and the communicative model of language. Language is much more than a set of labels; it shapes the human world and structures social relations themselves. In addition, language acts as a social link. The function of language as a social link allows us to think of it in relation to the Law and the very function of this human subjectivity. In reference to the Other of the Law and language, the subject finds her recognition, and this implies that the language is not reducible to communication. The process of technical-scientific domination of Western institutions leads to a reduction of their functions to the formal aspects, which may lead to a reification of the human as well as a state of alienation
La geopolitica e lo spazio che conta
Definita come quella scienza che si occupa «dei contesti spaziali delle opzioni
politiche» e delle forme di potere che in tali contesti si generano (Treccani), la geopolitica ha
goduto di fortune alterne fino almeno agli anni Settanta, quando la sua popolarità riprende
a crescere grazie allo sviluppo delle relazioni internazionali e degli studi strategici. Per le
sue caratteristiche ibride – a metà tra analisi e divulgazione – la disciplina non è riuscita
a trovare una chiara collocazione accademica, in compenso si è sviluppata come braccio
consulenziale di governi e, soprattutto, dei media.
La sua centralità è oggi fuori discussione perché unica disciplina in grado di
interpretare e posizionare nella giusta cornice di senso argomenti molto diversi fra loro
quali i fenomeni immigratori, il nuovo emergere dei califfati, i temi socio-demografici, le
rivoluzioni politiche e culturali, le differenze etniche e il fondamentalismo religioso. Quelle
che seguono sono alcune delle iniziative in Rete in grado di offrire almeno una parziale
rappresentazione del complesso ed organico mondo della geopolitica
Parallel waveform extraction algorithms for the Cherenkov Telescope Array Real-Time Analysis
The Cherenkov Telescope Array (CTA) is the next generation observatory for
the study of very high-energy gamma rays from about 20 GeV up to 300 TeV.
Thanks to the large effective area and field of view, the CTA observatory will
be characterized by an unprecedented sensitivity to transient flaring gamma-ray
phenomena compared to both current ground (e.g. MAGIC, VERITAS, H.E.S.S.) and
space (e.g. Fermi) gamma-ray telescopes. In order to trigger the astrophysics
community for follow-up observations, or being able to quickly respond to
external science alerts, a fast analysis pipeline is crucial. This will be
accomplished by means of a Real-Time Analysis (RTA) pipeline, a fast and
automated science alert trigger system, becoming a key system of the CTA
observatory. Among the CTA design key requirements to the RTA system, the most
challenging is the generation of alerts within 30 seconds from the last
acquired event, while obtaining a flux sensitivity not worse than the one of
the final analysis by more than a factor of 3. A dedicated software and
hardware architecture for the RTA pipeline must be designed and tested. We
present comparison of OpenCL solutions using different kind of devices like
CPUs, Graphical Processing Unit (GPU) and Field Programmable Array (FPGA) cards
for the Real-Time data reduction of the Cherenkov Telescope Array (CTA)
triggered data.Comment: In Proceedings of the 34th International Cosmic Ray Conference
(ICRC2015), The Hague, The Netherlands. All CTA contributions at
arXiv:1508.0589
Controlling the quantum state of a single photon emitted from a single polariton
We investigate in detail the optimal conditions for a high fidelity transfer
from a single-polariton state to a single-photon state and subsequent homodyne
detection of the single photon. We assume that, using various possible
techniques, the single polariton has initially been stored as a spin-wave
grating in a cloud of cold atoms inside a low-finesse cavity. This state is
then transferred to a single-photon optical pulse using an auxiliary beam. We
optimize the retrieval efficiency and determine the mode of the local
oscillator that maximizes the homodyne efficiency of such a photon. We find
that both efficiencies can have values close to one in a large region of
experimental parameters.Comment: 10 pages, 8 figure
- …