30 research outputs found

    Comparaison des documents audiovisuels<br />par Matrice de Similarité

    Get PDF
    The work of this thesis relates to the comparison of video documents. The field of digital video is in full expansion. Videos are now present in large quantity even for personal use. The video comparison is a basic analysis operation in complement of classification, extraction and structuring of videos.Traditional approaches of comparison are primarily based on the low-level features of the videos to be compared, considered as multidimensional vectors. Other approaches are based on the similarity of frames without taking into account neither the temporal composition of the video nor the audiolayer. The main disadvantage of these methods is that they reduce the comparison role to a simple operator robust to noise effects. Such operators are generally used in order to identify the various specimens of a same document.The originality of our approach lies in the introduction of the of style similarity notion, taking as a starting point the human criteria into the comparison. These criteria are more flexible, and do not impose a strict similarity of all the studied features at the same time.We define an algorithm of extraction of the similarities between the series of values produced bythe analysis of the audiovisual low-level features. The algorithm is inspired by the dynamic programmingand the time series comparison methods.We propose a representation of the data resulting from these processings in the form of a matrixpattern suitable for the visual and immediate comparison of two videos. This matrix is then used topropose a generic similarity measure. The measure is applicable independently to videos of comparableor heterogeneous contents.We developed several applications to demonstrate the behavior of the comparison method and thesimilarity measure. The experiments concern primarily: - the identification of the structure in acollection/sub-collection of documents, - the description of stylistics elements in a movie, and - theanalysis of the grid of programs from a TV stream.Les travaux de cette thèse concernent la comparaison des documents vidéo. Dans le domaine en pleine expansion de la vidéo numérique, les documents disponibles sont maintenant présents en quantité importante même dans les foyers. Opération de base de tout type d'analyse de contenus, en complément de la classification, de l'extraction et de la structuration, la comparaison dans le domaine de l'audiovisuel est d'une utilité qui n'est pas à démontrer.Des approches classiques de comparaison se basent essentiellement sur l'ensemble des caractéristiquesbas niveaux des documents à comparer, en les considérant comme des vecteurs multidimensionnels. D'autres approches se basent sur la similarité des images composant la vidéo sans tenir compte de la composition temporelle du document ni de la bandeson. Le défaut que l'on peut reprocher à ces méthodes est qu'elles restreignent la comparaison à un simple opérateur binaire robuste au bruit. De tels opérateurs sont généralement utilisés afin d'identifier les différents exemplaires d'un même document. L'originalité de notre démarche réside dans le fait que nous introduisons la notion de la similarité de styleen s'inspirant des critères humains dans la comparaison des documents vidéo. Ces critèressont plus souples, et n'imposent pas une similarité stricte de toutes les caractéristiques étudiéesà la fois.En nous inspirant de la programmation dynamique et de la comparaison des séries chronologiques, nous définissons un algorithme d'extraction des similarités entre les séries de valeurs produites par l'analyse de caractéristiques audiovisuelles de bas-niveau. Ensuite, un second traitement générique approxime le résultat de l'algorithme de la longueur de la PlusLongue Sous-Séquence Commune (PLSC) plus rapidement que ce dernier. Nous proposons une représentation des données issues de ces traitements sous la forme d'un schéma matriciel propre à la comparaison visuelle et immédiate de deux contenus. Cette matrice peut être également utilisée pour définir une mesure de similarité générique, applicable à des documents de même genre ou de genres hétérogènes.Plusieurs applications ont été mises en place pour démontrer le comportement de la méthode de comparaison et de la mesure de similarité, ainsi que leur pertinence. Les expérimentations concernent essentiellement : - l'identification d'une structure organisationnelle en collection / sous-collection d'une base de documents, - la mise en évidence d'élémentsstylistiques dans un film de cinéma, - la mise en évidence de la grille de programmes d'unflux de télévision

    Traduire l’humour dans les textes audiovisuels. Deux traductions en finnois du film Intouchables

    Get PDF
    Ce mémoire de Master traite de la traduction de l’humour dans un contexte audiovisuel. Le matériel de recherche consiste en scènes humoristiques du film Intouchables et de leurs traductions en finnois relevées dans deux sources différentes, les services du streaming Netflix et Ruutu.fi. L’étude compare donc deux traductions différentes, tenant compte ainsi de l’approche de la retraduction aussi. C’est un sujet d’actualité, car la consommation des produits audiovisuels s’accroît constamment ce qui fait augmenter la demande de traductions audiovisuelles. La discussion sur l’intraduisibilité de l’humour offre un objet de recherche intéressant et toujours actuel. La retraduction des textes audiovisuels reste encore peu étudiée. Il s’agit d’une étude qualitative, descriptive et comparative. Le corpus a été construit et traité manuellement et inclut au total 49 unités de traduction. Les répliques ont été classées selon la catégorie dominante des éléments humoristiques dans la scène où elles apparaissent dans le film, puis la stratégie traductionnelle principale (rétention, spécification, traduction directe, généralisation, substitution, omission) de chaque réplique a été identifiée. La réussite de deux sous-titreurs à rendre l’humour du texte original dans leurs traductions est observée sur la base des changements de l’effet humoristique d’une langue à l’autre. Ces changements se présentent en trois niveaux : diminué, risque d’être perdu, perdu. Les différences entre les deux traductions sont également discutées. Les résultats obtenus indiquent que la stratégie traductionnelle la plus fréquente dans les deux traductions est la rétention. Cette stratégie est quand même encore beaucoup plus fréquemment utilisée dans la seconde traduction, tandis que la première traduction présente un emploi plus varié de stratégies différentes. Dans la plupart des cas, les traducteurs ont rendu l’effet humoristique équivalent à celui du texte source. Au cas où il y a un changement de l’effet humoristique, il s’agit le plus souvent d’un élément humoristique qui contient une référence culturelle. Ce type de référence combiné avec la stratégie de rétention pose le plus souvent des problèmes dans le transfert de l’humour, lorsque la référence n’est pas connue dans la culture cible. Les résultats de cette étude corroborent aussi l’hypothèse de la retraduction selon laquelle les premières traductions sont ciblistes et les retraductions sont sourcières

    Avenir de l\u27audiovisuel à l\u27ère du numérique (L\u27)

    Get PDF
    Sénat - Rapport d\u27information fait au nom de la commission des Finances, du contrôle budgétaire et des comptes économiques de la Nation sur l\u27avenir de l\u27audiovisuel à l\u27ère du numérique

    Modèles de langage ad hoc pour la reconnaissance automatique de la parole

    Get PDF
    Les trois piliers d un système de reconnaissance automatique de la parole sont le lexique,le modèle de langage et le modèle acoustique. Le lexique fournit l ensemble des mots qu il est possible de transcrire, associés à leur prononciation. Le modèle acoustique donne une indication sur la manière dont sont réalisés les unités acoustiques et le modèle de langage apporte la connaissance de la manière dont les mots s enchaînent.Dans les systèmes de reconnaissance automatique de la parole markoviens, les modèles acoustiques et linguistiques sont de nature statistique. Leur estimation nécessite de gros volumes de données sélectionnées, normalisées et annotées.A l heure actuelle, les données disponibles sur le Web constituent de loin le plus gros corpus textuel disponible pour les langues française et anglaise. Ces données peuvent potentiellement servir à la construction du lexique et à l estimation et l adaptation du modèle de langage. Le travail présenté ici consiste à proposer de nouvelles approches permettant de tirer parti de cette ressource.Ce document est organisé en deux parties. La première traite de l utilisation des données présentes sur le Web pour mettre à jour dynamiquement le lexique du moteur de reconnaissance automatique de la parole. L approche proposée consiste à augmenter dynamiquement et localement le lexique du moteur de reconnaissance automatique de la parole lorsque des mots inconnus apparaissent dans le flux de parole. Les nouveaux mots sont extraits du Web grâce à la formulation automatique de requêtes soumises à un moteur de recherche. La phonétisation de ces mots est obtenue grâce à un phonétiseur automatique.La seconde partie présente une nouvelle manière de considérer l information que représente le Web et des éléments de la théorie des possibilités sont utilisés pour la modéliser. Un modèle de langage possibiliste est alors proposé. Il fournit une estimation de la possibilité d une séquence de mots à partir de connaissances relatives à existence de séquences de mots sur le Web. Un modèle probabiliste Web reposant sur le compte de documents fourni par un moteur de recherche Web est également présenté. Plusieurs approches permettant de combiner ces modèles avec des modèles probabilistes classiques estimés sur corpus sont proposées. Les résultats montrent que combiner les modèles probabilistes et possibilistes donne de meilleurs résultats que es modèles probabilistes classiques. De plus, les modèles estimés à partir des données Web donnent de meilleurs résultats que ceux estimés sur corpus.The three pillars of an automatic speech recognition system are the lexicon, the languagemodel and the acoustic model. The lexicon provides all the words that can betranscribed, associated with their pronunciation. The acoustic model provides an indicationof how the phone units are pronounced, and the language model brings theknowledge of how words are linked. In modern automatic speech recognition systems,the acoustic and language models are statistical. Their estimation requires large volumesof data selected, standardized and annotated.At present, the Web is by far the largest textual corpus available for English andFrench languages. The data it holds can potentially be used to build the vocabularyand the estimation and adaptation of language model. The work presented here is topropose new approaches to take advantage of this resource in the context of languagemodeling.The document is organized into two parts. The first deals with the use of the Webdata to dynamically update the lexicon of the automatic speech recognition system.The proposed approach consists on increasing dynamically and locally the lexicon onlywhen unknown words appear in the speech. New words are extracted from the Webthrough the formulation of queries submitted toWeb search engines. The phonetizationof the words is obtained by an automatic grapheme-to-phoneme transcriber.The second part of the document presents a new way of handling the informationcontained on the Web by relying on possibility theory concepts. A Web-based possibilisticlanguage model is proposed. It provides an estition of the possibility of a wordsequence from knowledge of the existence of its sub-sequences on the Web. A probabilisticWeb-based language model is also proposed. It relies on Web document countsto estimate n-gram probabilities. Several approaches for combining these models withclassical models are proposed. The results show that combining probabilistic and possibilisticmodels gives better results than classical probabilistic models alone. In addition,the models estimated from Web data perform better than those estimated on corpus.AVIGNON-Bib. numérique (840079901) / SudocSudocFranceF

    L'utilisation des stratégies de diffusion dans le journalisme numérique québécois : le cas du piège à clic

    Get PDF
    Ce mémoire porte sur l'implantation des stratégies de diffusion au sein de trois grandes entreprises de presse québécoises et leur degré d'utilisation de la stratégie du piège à clic pour attirer l'attention du lecteur. Marquées par une période de changements des modèles médiatiques et avec l'avènement des réseaux sociaux dans le monde journalistique, les entreprises de presse ont dû adapter leurs stratégies pour rejoindre leur lectorat sur de nouvelles plateformes. Dans une logique de coopétition avec les plateformes d'infomédiation (Bouquillion, Miège et Moeglin, 2013), cette étude se focalise sur l'analyse des stratégies de diffusion des contenus sur la plateforme Facebook, et la présence de publications se rapprochant d'une définition du piège à clic proposée par Chen, Conroy et Rubin (2015) dans trois entreprises distinctes, soit Radio-Canada (ICI Québec), Québecor (Le Journal de Québec) et Groupe Capitales Médias (Le Soleil). En utilisant un cadre théorique qui mobilise la théorie des industries culturelles et la notion de filière, notamment celle de l'infomédiation et celle de l'économie de l'attention, nous examinons dans quelle mesure la recherche du sensationnel et de la viralité pour générer des clics est présente chez ces acteurs. La recherche fait appel à une méthode mixte à dominance qualitative et propose cinq facteurs recensés dans les recherches antérieures pour évaluer et quantifier l'utilisation de la méthode du piège à clic dans les entreprises de presse québécoises. Par ailleurs, des entrevues réalisées avec les gestionnaires de contenus des entreprises permettent de comprendre les cadres des stratégies de diffusion et leur vision de l'utilisation d'une telle stratégie. À l'issue de l'analyse de trois journées de publication pour chaque entreprise, nous ne pouvons retrouver l'utilisation du piège à clic dans sa version la plus aboutie. L'analyse montre que certains indicateurs sont plus présents que d'autres lors la diffusion sur les réseaux sociaux et nous pouvons conclure que la fidélisation du public basée sur l'établissement d'une relation de confiance, plutôt que la recherche d'un très vaste auditoire rapidement, reste au cœur des stratégies de diffusion de ces entreprises de presse.This study aims to analyze Facebook editorial strategies by Quebec media companies and their eventual use of clickbait strategies. Marked by technological and socioeconomic shifts within the media landscape for almost two decades, media companies must adapt their publication strategies to new media platforms, including those of social network sites such as Facebook and infomediaries. This research evaluates the presence of indicators of a clickbait derived from existing literature (Chen, Conroy et Rubin , 2015)) and its use by three different Quebec media companies: Radio-Canada/CBC (ICI Québec), Groupe Capitales Médias (Le Soleil) and Quebecor (le Journal de Québec). Based on a mixed methods qualitative research, which combines content analysis of Facebook publications to quantify the use of clickbait within these three companies, and open interviews with content managers to further understand the broadcast strategies put in place, we find that there is no significant use of clickbait strategies within these media companies. However, the analysis shows that certain indicators are definitely more present, as media companies try to get attention on Facebook while trying to work on a long-term reader retention based on trust, rather than count on short-lived viral attention

    Étude de la variation terminologique dans le domaine de la traduction audiovisuelle

    Get PDF
    La traduction audiovisuelle (TAV) est un domaine en expansion pour lequel l'intérêt ne cesse de grandir depuis plus de deux décennies. En effet, 1995 est une année décisive pour la TAV, qui est mise de l'avant à l'occasion du centenaire du cinéma. À travers ses différentes formes, le doublage et le sous-titrage étant les plus connus, la TAV est un véritable vecteur de la diffusion des œuvres cinématographiques. À une recherche jusque-là fragmentaire et épisodique sur le domaine succède une profusion d'articles, de livres, de thèses, etc. Seulement, une préoccupation semble revenir dans les recherches sur la TAV : l'instabilité de sa terminologie, soumise à la variation. Nous avons décidé de nous pencher sur cette préoccupation en étudiant la terminologie anglaise et française de la TAV. Existe-t-il réellement de la variation terminologique en TAV ? Si oui, quelle en est l'ampleur ? Y a-t-il des formes de TAV qui sont plus concernées que d'autres ? Quelles sont les causes possibles de cette potentielle variation ? Est-elle visible seulement dans les écrits des chercheurs ou aussi dans les textes des professionnels du domaine ? Il s'agit là de questions auxquelles nous avons tenté de répondre grâce à un corpus d'étude constitué de textes de chercheurs et de professionnels du domaine publiés entre 1990 et 2019. Les textes du corpus, dépouillés manuellement ou électroniquement en fonction de leur format, nous ont permis de relever 380 concepts en anglais et 410 concepts en français désignés par plus de 500 termes dans chacune des langues. L'analyse du corpus révèle ainsi que le phénomène de variation terminologique est bien réel dans le domaine de la TAV, du moins, en français et en anglais. Sept types de variation ont été notés : la variation géographique, diachronique, discursive, orthographique, interlinguistique, cognitive et morphologique. La variation discursive est la plus importante dans les deux sous-corpus (chercheurs et professionnels) ainsi que dans les deux langues (anglais et français). Les causes de la variation terminologique en TAV semblent variées. De manière globale, la variation diachronique, l'absence de néologie et l'importation de la terminologie de domaines connexes comme le cinéma semblent être à l'origine de cas de variation correspondant à plus d'un des types énumérés ci-dessus.Audiovisual translation (AVT) is a growing field in which interest has been increasing for more than two decades. Indeed, 1995 was a decisive year for AVT, on which light was thrown when cinema turned 100 years. Through its various forms, dubbing and subtitling being the best known, AVT is a true vector for the distribution of cinematographic works. Research in this field, which had been fragmentary and episodic until then, has exploded with tons of articles, books, theses, etc. published. However, one concern seems to recur in research on AVT: the instability of its terminology which is subject to variation. We decided to address this concern by studying the English and French terminology of AVT. Does terminological variation really exist in this domain? If so, to what extent? Are some forms more affected than others? What are the possible causes of this potential variation? Is it visible only in writings of researchers or also in texts of professionals in the field? These are questions that we have tried to answer using a study corpus consisting of texts published by researchers and professionals in the field between 1990 and 2019. The texts, from which terms were extracted either manually or automatically according to their format, enabled us to identify 380 concepts in English and 410 concepts in French designated by more than 500 terms in each language. Thus, the corpus analysis reveals that terminological variation is real in AVT, at least in English and French. Seven types of variation were identified: geographic, diachronic, discursive, orthographic, cross-linguistic, cognitive, and morphological. Discursive variation is the most important in both sub-corpuses (researchers and professionals) and in both languages (English and French). The causes of terminological variation in AVT appear to be varied. Overall, diachronic variation, lack of neology, and importation of terminology from related fields such as cinema studies seem to be at the origin of cases of variation corresponding to more than one of the types listed above

    Numérique : impact sur le cycle de vie du document (Le)

    Get PDF
    Actes du colloque "Le numérique : impact sur le cycle de vie du document" organisé à l\u27université de Montréal par l\u27EBSI et l\u27ENSSIB du 13 au 15 octobre 2004. Son objectif était de traiter de façon interdisciplinaire la problématique suivante : « La numérisation, la diffusion des formats numériques originaux, les nouvelles méthodes d\u27indexation et d\u27analyse du document ainsi que le fonctionnement en réseau changent les données de base de la vie du document qui devient une sorte de phénix incessamment renaissant » (programme du colloque)

    Les journalistes en Communauté française - Rapport introductif aux Etats Généraux des Médias d'Information en Fédération Wallonie-Bruxelles

    Get PDF
    Chapitre sur le groupe professionnel des journalistes dans le cadre du rapport introductif des Etats Généraux des Médias d'Information en Communauté française de Belgique (EGMI)

    La distribution de films au Québec en 2011

    Full text link
    En 2010, les écrans du Québec étaient occupés par des films américains dans une proportion de 78,4 %. Ce mémoire veut mettre en lumière les mécanismes de la distribution de films au Québec et la responsabilité des distributeurs dans l'offre cinématographique nationale. Après avoir décrit les cinq étapes de la fabrication d'un film, nous dressons l'inventaire des politiques fédérales et provinciales qui régissent la distribution au Québec. Nous établissons ensuite des parallèles entre les politiques nationales et celles de pays de l'Union européenne afin de considérer comment et pourquoi, pour protéger leur identité « de la déferlante américaine », ces pays tentent de réglementer l'industrie cinématographique. Par la suite, nous observons quel est le rôle de la distribution dans la filière économique en général et dans l'industrie québécoise du cinéma en particulier à travers une série d'entrevues semi-dirigées avec les principaux protagonistes du milieu. Nous nous intéressons subséquemment à l'avenir de la distribution cinématographique relativement à la dématérialisation des images et du son. Finalement, nous concluons que le menu cinématographique québécois est composé par le positionnement des distributeurs américains et québécois en réponse à une demande artificielle des consommateurs reflétée par la billetterie (box-office); positionnement légitimé par les politiques gouvernementales.In 2010, 78,4 % of the films shown in Quebec were American. This thesis intends to shed light on the mechanisms at play when it comes to film distribution in Quebec and the responsibility that distributors have with respect to national film offerings. After having described the five steps involved in making a film, we draw up the inventory of federal and provincial policies that govern distribution in Quebec. We then establish parallels between national policies and those of European Union countries in order to consider how and why, as a way to protect their identity « from the American tidal wave », those countries try to regulate the film industry. We subsequently examine the role that distribution plays in the economic chain in general and in the Quebec film industry in particular through a series of semi-structured interviews with leading protagonists in the field. We then take a look at the future of film distribution as it relates to the dematerialization of images and sound. Finally, we conclude that the Quebec film menu is made up by the positioning of American and Quebec distributors in response to an artificial consumer demand that is reflected by the box-office, legitimized by the governments

    Vers une compétence informationnelle plurilingue : usages et représentations linguistiques de journalistes, professionnels "lecteurs producteurs" de l'information dans l'espace web.

    Get PDF
    Receiving media content on the Web, considered as a global information space, is typified by an inherent paradox. Most of the time, information accessibility is not fully exploited. Confronted with « overinformation », users’ digital consultation is limited to restricted circles, even « hyperlocal ». Circles are mostly regulated by algorithm selection and by the use of translation and adaptation of the information to a target reader. This tendency accentuates the reader’s ethnocentrism, going for a « national preference » imposed. As mediators, journalists, just like teachers, convey prevailing representations and participate in spreading knowledge in society. This PhD thesis looks into professional digital readers’ linguistics uses and representations, aka digital journalists. The qualitative research reinforced by quantitative data focuses on three aspects of mediation: reception, production and intercomprehension. The investigation is contextualized in two complementary territories of Southern Europe: Sassari in Sardegna (Italy) and Barcelona in Catalonia, (Spain). The data analysis helps us identify six different profiles of digital readers according to their reading habits and ways of accessing Web content. This study takes inventory of intercomprehension strategies with a strong informational and educational potential. Reading in several languages encourages the comparison and confrontation of information that is culturally, politically and socially different. Understanding those issues and knowing those strategies enables mediators, teachers or journalists, to develop a plurilingual informational competence towards learners or receptors seen as readers citizens. By becoming a “plurilingual researcher” instead of a “multilingual consumer”, digital readers would have all the necessary tools to transform information in knowledge
    corecore