399 research outputs found
Transcription et codage des imprimés de la Renaissance.: Réflexions pour un inventaire des caractères anciens
International audiencePreserving as many informations as possible from the original document, a transcription of ancient printed text should serve as a basis not only for literary analysis, but also for palaeotypographic studies. With this aim, we require a standardized encoding able to preserve a unequivocal link between the characters of the digital transcription and those of the original source. We define here the new concept of typem, a transitional element between the notion of character and glyph as defined by Unicode. It is proposed here to use MUFI, an extension to the Unicode standard, by adding new code points dedicated to "typems", in order to produce what we call "typemic transcriptions", reproducing all the characters of the original document. Finally, a project of a census of all the typems, named PICA (Projet d'Inventaire des Caractères Anciens), is described.Conservant le plus grand nombre possible d'informations du document-source, une transcription de texte imprimé ancien devrait pouvoir servir de base non seulement à des analyses littéraires, mais également à des études " paléotypographiques ". Pour ce faire, il faudrait disposer d'un codage normalisé permettant d'assurer une correspondance univoque entre les caractères de la transcription numérique et ceux de la source originale. Le terme " caractère " pouvant prêter à confusion, nous introduisons un nouveau concept : celui de " typème ", intermédiaire entre le caractère et le glyphe tel qu'Unicode les définit. Nous proposons d'utiliser le codage MUFI, une extension d'Unicode, augmentée des typèmes attestés dans les imprimés anciens, afin de produire une transcription dite " typémique ", reproduction fidèle de la composition typographique du document original. Nous concluons sur la nécessité de réaliser l'inventaire des typèmes attestés dans les imprimés anciens, qui fera l'objet d'un Projet d'Inventaire des Caractères Anciens (PICA) actuellement à l'étude
Numérique au service de l\u27historien du livre (Le)
Mémoire du Master 1 Cultures de l\u27écrit et de l\u27image portant sur les bouleversements engendrés par le numérique dans le travail de l\u27historien du livre
Approches historiques et apports des nouvelles technologies (informatisation et numérisation) : l’exemple des éditions incunables de l’Hortus sanitatis
Sans se limiter à l’Hortus sanitatis, mais en s’attachant précisément à son histoire, l’article fait le point sur l’évolution de la description bibliographique et de la valorisation des incunables. Les auteurs montrent d’abord comment les différents pays ont entrepris de cataloguer leurs incunables, chacun de son côté, puis comment le système de Short Titled Catalogue est devenu universel, avec une exigence de précision toujours plus grande. On voit ensuite la manière dont on est passé aux notices informatisées, d’abord par le biais du système MARC, puis, tout récemment, en recourant à un système MARC-TEI. L’informatisation des notices descriptives des incunables, qui doit s’achever en 2014, doit permettre d’établir un catalogue national. Les auteurs traitent pour finir de la numérisation et exposent la triple logique à laquelle elle doit répondre pour être exploitable : logique d’exploitation patrimoniale, de recherche scientifique et de valorisation culturelle et éditoriale.This paper, that relies on the Hortus sanitatis’ example, takes stock of early printed books’ bibliographical description and enhancement. Different countries first tried, separately, to make printed catalogues, and, little by little, they all used the STC system. Later, they began to computerize the catalogues, and they first used the MARC system, and, now, the MARC-TEI system. At the same time, libraries try to digitize incunabula, but this must be done in such a way as to allow scientific research, patrimonial uses and cultural enhancement
Lexique du livre numérique
Ce Lexique du livre numérique Ă©laborĂ© par l\u27Arald est à destination des éditeurs professionnels. Issu de la réflexion d’un groupe de travail rassemblant éditeurs, représentants de la Région et de la DRAC Rhône- Alpes, et l’Arald, il identifie une centaine de notions auxquelles tout éditeur souhaitant développer ses activités numériques aura à faire face
Paléographie statistique pour décrire, identifier, dater. . . Normaliser pour coopérer et aller plus loin ?
Les initiatives TEI (Text Encoding Initiative) et MUFI (Medieval Unicode Font Initiative)
multiplient les potentialités des transcriptions et invitent à interroger le processus même
d’une opération pourtant commune dans les études médiévales. Transcrire, c’est décrire
un texte et sa mise en forme graphique. Cela ouvre des voies aux études paléographiques,
notamment par la description des diverses variantes morphologiques des lettres
ou abréviations. Des recherches entreprises sur la production écrite de l’abbaye
cistercienne de Fontenay démontrent le potentiel considérable des transcriptions dites
« allographétiques » et des statistiques descriptives pour comprendre les évolutions
de l’écriture médiévale. La fragmentation du paysage actuel de la recherche amène
pourtant à souhaiter une harmonisation des pratiques, tant pour décrire les phénomènes
paléographiques que pour structurer les données et formuler des ontologies
La numérisation du patrimoine livresque médiéval : avancée décisive ou miroir aux alouettes ?
La numérisation de la totalité du patrimoine livresque médiéval, qui pouvait paraître
une utopie il y a quelques années, tend à devenir une perspective raisonnable dans un
avenir relativement proche. Bien que de telles opérations doivent être nécessairement
promues et gĂ©rĂ©es par les bibliothèques elles-mĂŞmes, on peut se demander jusqu’Ă
quel point les modalités de la numérisation seront compatibles avec les exigences
des chercheurs : on peut craindre, en effet, un certain nombre de distorsions en
ce qui concerne le choix des livres à numériser, la définition et la disponibilité
effective des images et l’accès direct aux livres qui auraient été numérisés. Cela
dit, la numérisation n’est pas une fin en soi. Elle devrait être considérée comme
le moment clé d’une initiative plus vaste, ayant pour objectif la constitution d’une
véritable Bibliotheca universalis. Or, cette bibliothèque virtuelle ne saurait fonctionner
de manière satisfaisante en l’absence d’un arrière-plan descriptif adéquat, ce qui soulève
beaucoup de problèmes. Cette constatation renvoie tout naturellement à l’interrelation
entre la numérisation de l’objet et sa description catalographique qui, lorsqu’il s’agit
de définir des priorités, pourrait donner lieu des choix difficiles. Cet antagonisme
potentiel pourrait être dépassé grâce à la mise en œuvre sur le web d’un nouveau
type de catalogue interactif qu’on pourrait appeler « grand-ouvert ». Il ne faut pas
oublier, cependant, que le concept de Bibliotheca universalis présuppose que l’on
puisse naviguer à loisir dans l’ensemble des images numérisées, et donc que les bases
descriptives sous-jacentes soient interconnectées. Pour que cela soit possible, il faudrait
que les données fondamentales soient harmonisées grâce à l’existence d’une métabase
d’« autorités ». Nous en sommes loin. Il n’est pas sûr, enfin, que le chercheur puisse
tirer pleinement parti de l’ensemble des données textuelles et iconographiques dans
la perspective d’un véritable traitement de l’information : en effet, la structure et le
contenu des bases ne sont pas assez rigoureux et les buts poursuivis se limitent le
plus souvent à faciliter le repérage et la sélection d’objets possédant une ou plusieurs
caractéristiques communes. A tout cela, il convient d’ajouter des empêchements qui
découlent, malheureusement, de points de vue moins scientifiques qu’administratifs,
voire lucratifs, chez les institutions
Manier le thésaurus grec
In a period when a true digital philology is emerging, this paper offers a reflection on the changing ways of the scholarly handling of ancient Greek texts, from the ancient times themselves and the thesauri compiled in the Renaissance to the "Thesaurus Linguae Graecae" maintained but the University of California and the Perseus Digital Library developed at Tufts University.Alors que se précise l'émergence d'une véritable philologie numérique, cet article propose une réflexion sur les transformations de notre maniement savant des textes grecs anciens, depuis l'Antiquité elle-même et les thésaurus de la Renaissance jusqu'au "Thesaurus Linguae Graecae" publié par l'université de Californie et à la Perseus Digital Library développée par l'université Tufts
Etude préliminaire en vue de la numérisation de la documentation scientifique de l’EPFL
Cette étude préliminaire de numérisation vise à étudier si et comment il est possible de mettre en valeur les fonds et, indirectement, faire évoluer la gestion documentaire de plusieurs laboratoires scientifiques n’ayant pas migré totalement leurs collections à la bibliothèque de l’EPFL. Mon travail consiste, dans un premier temps, à prendre contact avec un échantillon représentatif de laboratoires afin de réaliser un état des lieux de leur documentation et de la gestion de celle-ci. Après analyse, des critères de choix et de priorisation dans le traitement des documents sont définis de concert avec les scientifiques et les bibliothécaires dans le cadre d’un projet de numérisation éventuel. Cette étape m’a permis également de prendre connaissance des besoins et attentes des scientifiques dans le domaine de la recherche documentaire. Ensuite, mon étude s’intéresse au processus de numérisation dans sa globalité avant de se recentrer sur chaque entité étudiée. Quels documents méritent d’être scannés ? Qu’en est-il des droits d’auteur ? Peut-on lancer le projet en interne ou est-il préférable de s’orienter vers un prestataire externe ? Quels sont les coûts d’un tel projet ? L’outil Infoscience, l’archive institutionnelle de l’EPFL, est-il adapté au signalement et à la diffusion des documents numérisés ? Ces questions sont abordées au fil de mon étude tout en y apportant des éclaircissements et des éléments de réponse. Une analyse critique de la situation est également menée en comparant les pratiques de l’EPFL avec d’autres institutions universitaires. Ce rapport établit un constat actuel de la numérisation et aboutit à des recommandations et des axes d’amélioration dans le but de créer un guide de bonnes pratiques utile à la bibliothèque de l’EPFL et à d’autres laboratoires concernés par cette problématique
Mise à disposition de corpus oraux interactifs : le projet TCOF (Traitement de Corpus Oraux en Français)
Cet article présente le projet TCOF (Traitement de Corpus Oraux en Français) du laboratoire ATILF (Analyse et Traitement Informatique de la Langue Française), UMR 7118, CNRS et Nancy Université. Ce projet a été initié en 2005 afin de collecter un grand corpus de données orales et d’étudier les productions langagières et les pratiques interactionnelles (des enfants et des adultes) en français parlé. La mise en place du projet TCOF comporte plusieurs aspects : importante collecte de données, transcription alignée texte-son, mise en conformité juridique, traitement informatique de ces données, diffusion internationale libre et gratuite sur le site du CNRTL (Centre National de Ressources Textuelles et Lexicales), à l’adresse suivante : http://www.cnrtl.fr/corpus/tcof/. L’article présente les réflexions, les contraintes et les travaux en cours pour la réalisation de ces différents aspects
- …