53 research outputs found

    Tecnologías de la Información y Libertades: Un reto para los técnicos

    Full text link
    Ultimamente, en,varios medios de comunicación, parece haber resucitado el viejo (y nuevo) debate sobre la regulación de la Informática para limitar su influencia negativa en las libertades fundamentales de la persona. Viejo, puesto que ya en los primeros tiempos de la Informática se comenzó a hablar de las posibles influencias negativas que esta nueva Ciencia podría tener. Nuevo, porque el asunto es de candente actualidad, Los padres de nuestra Constitución ya tuvieron en cuenta este problema, y recogieron en su artículo 18.4 la necesidad de su regulación legal en nuestro ordenamiento jurídico: «La ley limitará el uso de la informática para garantizar el honor y la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos.» Casi trece años han transcurrido desde su aprobación y aún no se ha producido esta regulación legal, aunque ya se discute el anteproyecto de la Ley Orgánica para la Regulación del Tratamiento Automatizado de los Datos de Carácter Personal

    La formaciĂłn telepresencial en la escuela

    Get PDF
    Nuestra Escuela ha sido un centro pionero de la Universidad Politecnica de Madrid en experimentar con nuevas formas de enseñanza, y muy particularmente en el empleo de las tecnologías en el proceso enseñanza- aprendizaje. Mediante la teleenseñanza se amplían enormemente las posibilidades de formación de los alumnos: por ejemplo, utilizando videoconferencia es posible ofrecerles el conocimiento que poseen otras personas no pertenecientes a nuestro cuerpo docente, y que pueden estar a muchos kilómetros de distancia; igualmente, introduciendo contenidos en la red es posible que el proceso de aprendizaje se produzca de forma asíncrona, de acuerdo con un ritmo escogido por el propio alumno segun sus capacidades y posibilidades. Aunque podría hablarse mucho sobre este último aspecto, me centraré en aspectos de la enseñanza telepresencial en lo sucesivo

    Miracle’s 2005 Approach to Cross-lingual Information Retrieval

    Full text link
    This paper presents the 2005 Miracle’s team approach to Bilingual and Multilingual Information Retrieval. In the multilingual track, we have concentrated our work on the merging process of the results of monolingual runs to get the multilingual overall result, relying on available translations. In the bilingual and multilingual tracks, we have used available translation resources, and in some cases we have using a combining approach

    Report of MIRACLE team for the Ad-Hoc track in CLEF 2006

    Get PDF
    This paper presents the 2006 MIRACLE’s team approach to the AdHoc Information Retrieval track. The experiments for this campaign keep on testing our IR approach. First, a baseline set of runs is obtained, including standard components: stemming, transforming, filtering, entities detection and extracting, and others. Then, a extended set of runs is obtained using several types of combinations of these baseline runs. The improvements introduced for this campaign have been a few ones: we have used an entity recognition and indexing prototype tool into our tokenizing scheme, and we have run more combining experiments for the robust multilingual case than in previous campaigns. However, no significative improvements have been achieved. For the this campaign, runs were submitted for the following languages and tracks: - Monolingual: Bulgarian, French, Hungarian, and Portuguese. - Bilingual: English to Bulgarian, French, Hungarian, and Portuguese; Spanish to French and Portuguese; and French to Portuguese. - Robust monolingual: German, English, Spanish, French, Italian, and Dutch. - Robust bilingual: English to German, Italian to Spanish, and French to Dutch. - Robust multilingual: English to robust monolingual languages. We still need to work harder to improve some aspects of our processing scheme, being the most important, to our knowledge, the entities recognition and normalization

    ¿Es importante el estilo en los escritos técnicos?

    Get PDF
    Es dificil en muchos casos leer un articulo, informe o publicacion de caracter cientifico o tecnico. Un lector que se enfrenta a una de estas publications, pretendiendo una rapida y clara comprension del mismo, y que obtiene un resultado adverso, achacarfa las dificultades al contenido del articulo en si: los conceptos son complejos en muchos casos, el vocabulario introduce «ruido» en la claridad, etc. Aunque esto ultimo es cieito, la complejidad conceptual de contenidos que uno pretende transmitir no implica necesariamente la impenetrabilidad de la expresion. Cierto es que las personas que nos dedicamos a trabajar enmaterias de contenidos de caracter tecnico o cientffico no poseemos, o no tenemos bien entrenadas, ciertas capacidades de comunicaci6n (expresion, redaction...) que sise suponen, sin embargo, en otro tipo de personas (que famentablemente menospreciamos a veces con el calificativo de letras). He apuntado en el parrafo anterior un problema que por desgracia tiende a ir a mas: la supemspecializacion en el trabajo de los tecnicos. Las exigencia de conocimientos espedficos que se requieren de los cientfficos y de los tecnicos entra en conflicto directo con una fomtaci6n integral y multidisciplinar de los mismos, La palabra clave del discurso cientffico es la amunkation. No tanto la mera exposition de information, de conceptos o dates, sino la perceptidnclaraypretisa, por la mayor parte posible de la audiencia, de lo que ei autor tiene en mente, Si escribimos pensando en el lector, en sus expectativas, lograremos un acercamiento mayor a las necesidades de este. Conviene tener en cuenta que la audiencia no solo lee, sino que tambien interpreta. De un mismo parrafo, dos lectores distintos pueden Uegar a extraer dos (o mas) interpretaciones distintas. Ademas, las decisiones interpretativas que efectuamos al leer un texto se van realizando interactivamente, extrayendo la semantica a partir de pistas que se obtienen a traves de la estructura del texto

    Report of MIRACLE team for Geographical IR in CLEF 2006

    Full text link
    The main objective of the designed experiments is testing the effects of geographical information retrieval from documents that contain geographical tags. In the designed experiments we try to isolate geographical retrieval from textual retrieval replacing all geo-entity textual references from topics with associated tags and splitting the retrieval process in two phases: textual retrieval from the textual part of the topic without geo-entity references and geographical retrieval from the tagged text generated by the topic tagger. Textual and geographical results are combined applying different techniques: union, intersection, difference, and external join based. Our geographic information retrieval system consists of a set of basics components organized in two categories: (i) linguistic tools oriented to textual analysis and retrieval and (ii) resources and tools oriented to geographical analysis. These tools are combined to carry out the different phases of the system: (i) documents and topics analysis, (ii) relevant documents retrieval and (iii) result combination. If we compare the results achieved to the last campaign’s results, we can assert that mean average precision gets worse when the textual geo-entity references are replaced with geographical tags. Part of this worsening is due to our experiments return cero pertinent documents if no documents satisfy de geographical sub-query. But if we only analyze the results of queries that satisfied both textual and geographical terms, we observe that the designed experiments recover pertinent documents quickly, improving R-Precision values. We conclude that the developed geographical information retrieval system is very sensible to textual georeference and therefore it is necessary to improve the name entity recognition module

    Miracle’s 2005 Approach to Monolingual Information Retrieval

    Full text link
    This paper presents the 2005 Miracle’s team approach to Monolingual Information Retrieval. The goal for the experiments in this year was twofold: continue testing the effect of combination approaches on information retrieval tasks, and improving our basic processing and indexing tools, adapting them to new languages with strange encoding schemes. The starting point was a set of basic components: stemming, transforming, filtering, proper nouns extracting, paragraph extracting, and pseudo-relevance feedback. Some of these basic components were used in different combinations and order of application for document indexing and for query processing. Second order combinations were also tested, by averaging or selective combination of the documents retrieved by different approaches for a particular query

    Research in Linguistic Engineering: Resources and Tools

    Get PDF
    In this paper we are revisiting some of the resources and tools developed by the members of the Intelligent Systems Research Group (GSI) at UPM as well as from the Information Retrieval and Natural Language Processing Research Group (IR&NLP) at UNED. Details about developed resources (corpus, software) and current interests and projects are given for the two groups. It is also included a brief summary and links into open source resources and tools developed by other groups of the MAVIR consortium

    MIRACLE at GeoCLEF Query Parsing 2007: Extraction and Classification of Geographical Information

    Get PDF
    This paper describes the participation of MIRACLE research consortium at the Query Parsing task of GeoCLEF 2007. Our system is composed of three main modules. First, the Named Geo-entity Identifier, whose objective is to perform the geo-entity identification and tagging, i.e., to extract the “where” component of the geographical query, should there be any. This module is based on a gazetteer built up from the Geonames geographical database and carries out a sequential process in three steps that consist on geo-entity recognition, geo-entity selection and query tagging. Then, the Query Analyzer parses this tagged query to identify the “what” and “geo-relation” components by means of a rule-based grammar. Finally, a two-level multiclassifier first decides whether the query is indeed a geographical query and, should it be positive, then determines the query type according to the type of information that the user is supposed to be looking for: map, yellow page or information. According to a strict evaluation criterion where a match should have all fields correct, our system reaches a precision value of 42.8% and a recall of 56.6% and our submission is ranked 1st out of 6 participants in the task. A detailed evaluation of the confusion matrixes reveal that some extra effort must be invested in “user-oriented” disambiguation techniques to improve the first level binary classifier for detecting geographical queries, as it is a key component to eliminate many false-positives

    Un analizador sintáctico para gramáticas asociativas por la izquierda

    Full text link
    Esta comunicación presenta las posibilidades de las Gramáticas Asociativas por la Izquierda (LAG, Left Associative Grammar) para describir un lenguaje natural, en particular el castellano. Este formalismo gramatical surgió como una alternativa a las fórmulas tradicionales de enfocar el problema de la descripción de la sintaxis, como las Gramáticas de Estructura de Frase, o las Gramáticas Categoriales. Estos paradigmas tradicionales no recogen el hecho de que el lenguaje es inherentemente lineal en el tiempo. En consecuencia, el análisis de cadenas utilizando estas descripciones gramaticales necesita del concurso de grandes y complejas estructuras intermedias que lo faciliten, como charts, tablas LR, etc, al no ser eficiente el análisis directo. Las Gramáticas Asociativas por la Izquierda permiten describir un lenguaje de una forma lineal (de izquierda a derecha), facilitando así el que el dispositivo computacional de análisis trabaje eficientemente -palabra por palabra, de izquierda a derecha- interpretando directamente las reglas de la gramática sin recurrir a la elaboración de estructuras intermedias. Se ha realizado una implementación de un analizador para gramáticas de este tipo, con una filosofía modular que permite su integración con otras aplicaciones. Simultáneamente se ha escrito una gramática del español que ha servido como prototipo para evaluar las posibilidades de este formalismo para describir algunos fenómenos lingüísticos de nuestro idioma
    • …
    corecore