194 research outputs found

    Integration and coordination in a cognitive vision system

    Get PDF
    In this paper, we present a case study that exemplifies general ideas of system integration and coordination. The application field of assistant technology provides an ideal test bed for complex computer vision systems including real-time components, human-computer interaction, dynamic 3-d environments, and information retrieval aspects. In our scenario the user is wearing an augmented reality device that supports her/him in everyday tasks by presenting information that is triggered by perceptual and contextual cues. The system integrates a wide variety of visual functions like localization, object tracking and recognition, action recognition, interactive object learning, etc. We show how different kinds of system behavior are realized using the Active Memory Infrastructure that provides the technical basis for distributed computation and a data- and eventdriven integration approach

    Guidance and Control Design for High-Speed Rollout and Turnoff (ROTO)

    Get PDF
    A ROTO architecture, braking and steering control law and display designs for a research high speed Rollout and Turnoff (ROTO) system applicable to transport class aircraft are described herein. Minimum surface friction and FMS database requirements are also documented. The control law designs were developed with the aid of a non-real time simulation program incorporating airframe and gear dynamics as well as steering and braking guidance algorithms. An attainable objective of this ROTO system, as seen from the results of this study, is to assure that the studied aircraft can land with runway occupancy times less then 53 seconds. Runway occupancy time is measured from the time the aircraft crosses the runway threshold until its wing tip clears the near side of the runway. Turnoff ground speeds of 70 knots onto 30 degree exits are allowed with dry and wet surface conditions. Simulation time history and statistical data are documented herein. Parameters which were treated as variables in the simulation study include aircraft touchdown weight/speed/location, aircraft CG, runway friction, sensor noise and winds. After further design and development of the ROTO control system beyond the system developed earlier, aft CG MD-11 aircraft no longer require auto-asymmetric braking (steering) and fly-by-wire nose gear steering. However, the auto ROTO nose gear hysteresis must be less than 2 degrees. The 2 sigma dispersion certified for MD-11 CATIIIB is acceptable. Using this longitudinal dispersion, three ROTO exits are recommended at 3300, 4950 and 6750 feet past the runway threshold. The 3300 foot exit is required for MD-81 class aircraft. Designs documented in this report are valid for the assumptions/models used in this simulation. It is believed that the results will apply to the general class of transport aircraft; however further effort is required to validate this assumption for the general case

    FPGA-based Query Acceleration for Non-relational Databases

    Get PDF
    Database management systems are an integral part of today’s everyday life. Trends like smart applications, the internet of things, and business and social networks require applications to deal efficiently with data in various data models close to the underlying domain. Therefore, non-relational database systems provide a wide variety of database models, like graphs and documents. However, current non-relational database systems face performance challenges due to the end of Dennard scaling and therefore performance scaling of CPUs. In the meanwhile, FPGAs have gained traction as accelerators for data management. Our goal is to tackle the performance challenges of non-relational database systems with FPGA acceleration and, at the same time, address design challenges of FPGA acceleration itself. Therefore, we split this thesis up into two main lines of work: graph processing and flexible data processing. Because of the lacking benchmark practices for graph processing accelerators, we propose GraphSim. GraphSim is able to reproduce runtimes of these accelerators based on a memory access model of the approach. Through this simulation environment, we extract three performance-critical accelerator properties: asynchronous graph processing, compressed graph data structure, and multi-channel memory. Since these accelerator properties have not been combined in one system, we propose GraphScale. GraphScale is the first scalable, asynchronous graph processing accelerator working on a compressed graph and outperforms all state-of-the-art graph processing accelerators. Focusing on accelerator flexibility, we propose PipeJSON as the first FPGA-based JSON parser for arbitrary JSON documents. PipeJSON is able to achieve parsing at line-speed, outperforming the fastest, vectorized parsers for CPUs. Lastly, we propose the subgraph query processing accelerator GraphMatch which outperforms state-of-the-art CPU systems for subgraph query processing and is able to flexibly switch queries during runtime in a matter of clock cycles

    A cognitive ego-vision system for interactive assistance

    Get PDF
    With increasing computational power and decreasing size, computers nowadays are already wearable and mobile. They become attendant of peoples' everyday life. Personal digital assistants and mobile phones equipped with adequate software gain a lot of interest in public, although the functionality they provide in terms of assistance is little more than a mobile databases for appointments, addresses, to-do lists and photos. Compared to the assistance a human can provide, such systems are hardly to call real assistants. The motivation to construct more human-like assistance systems that develop a certain level of cognitive capabilities leads to the exploration of two central paradigms in this work. The first paradigm is termed cognitive vision systems. Such systems take human cognition as a design principle of underlying concepts and develop learning and adaptation capabilities to be more flexible in their application. They are embodied, active, and situated. Second, the ego-vision paradigm is introduced as a very tight interaction scheme between a user and a computer system that especially eases close collaboration and assistance between these two. Ego-vision systems (EVS) take a user's (visual) perspective and integrate the human in the system's processing loop by means of a shared perception and augmented reality. EVSs adopt techniques of cognitive vision to identify objects, interpret actions, and understand the user's visual perception. And they articulate their knowledge and interpretation by means of augmentations of the user's own view. These two paradigms are studied as rather general concepts, but always with the goal in mind to realize more flexible assistance systems that closely collaborate with its users. This work provides three major contributions. First, a definition and explanation of ego-vision as a novel paradigm is given. Benefits and challenges of this paradigm are discussed as well. Second, a configuration of different approaches that permit an ego-vision system to perceive its environment and its user is presented in terms of object and action recognition, head gesture recognition, and mosaicing. These account for the specific challenges identified for ego-vision systems, whose perception capabilities are based on wearable sensors only. Finally, a visual active memory (VAM) is introduced as a flexible conceptual architecture for cognitive vision systems in general, and for assistance systems in particular. It adopts principles of human cognition to develop a representation for information stored in this memory. So-called memory processes continuously analyze, modify, and extend the content of this VAM. The functionality of the integrated system emerges from their coordinated interplay of these memory processes. An integrated assistance system applying the approaches and concepts outlined before is implemented on the basis of the visual active memory. The system architecture is discussed and some exemplary processing paths in this system are presented and discussed. It assists users in object manipulation tasks and has reached a maturity level that allows to conduct user studies. Quantitative results of different integrated memory processes are as well presented as an assessment of the interactive system by means of these user studies

    Towards structured sharing of raw and derived neuroimaging data across existing resources

    Full text link
    Data sharing efforts increasingly contribute to the acceleration of scientific discovery. Neuroimaging data is accumulating in distributed domain-specific databases and there is currently no integrated access mechanism nor an accepted format for the critically important meta-data that is necessary for making use of the combined, available neuroimaging data. In this manuscript, we present work from the Derived Data Working Group, an open-access group sponsored by the Biomedical Informatics Research Network (BIRN) and the International Neuroimaging Coordinating Facility (INCF) focused on practical tools for distributed access to neuroimaging data. The working group develops models and tools facilitating the structured interchange of neuroimaging meta-data and is making progress towards a unified set of tools for such data and meta-data exchange. We report on the key components required for integrated access to raw and derived neuroimaging data as well as associated meta-data and provenance across neuroimaging resources. The components include (1) a structured terminology that provides semantic context to data, (2) a formal data model for neuroimaging with robust tracking of data provenance, (3) a web service-based application programming interface (API) that provides a consistent mechanism to access and query the data model, and (4) a provenance library that can be used for the extraction of provenance data by image analysts and imaging software developers. We believe that the framework and set of tools outlined in this manuscript have great potential for solving many of the issues the neuroimaging community faces when sharing raw and derived neuroimaging data across the various existing database systems for the purpose of accelerating scientific discovery

    Extending Peass to Detect Performance Changes of Apache Tomcat

    Get PDF
    New application versions may contain source code changes that decrease the application’s performance. To ensure sufficient performance, it is necessary to identify these code changes. Peass is a performance analysis tool using performance measurements of unit tests to achieve that goal for Java applications. However, it can only be utilized for Java applications that are built using the tools Apache Maven or Gradle. This thesis provides a plugin for Peass that enables it to analyze applications built with Apache Ant. Peass utilizes the frameworks Kieker and KoPeMe to record the execution traces and measure the response times of unit tests. This results in the following tasks for the Peass-Ant plugin: (1) Add Kieker and KoPeMe as dependencies and (2) Execute transformed unit tests. For the first task, our plugin programmatically resolves the transitive dependencies of Kieker and KoPeMe and modifies the XML buildfiles of the application under test. For the second task, the plugin orchestrates the process that surrounds test execution—implementing performance optimizations for the analysis of applications with large codebases—and executes specific Ant commands that prepare and start test execution. To make our plugin work, we additionally improved Peass and Kieker. Therefore, we implemented three enhancements and identified twelve bugs. We evaluated the Peass-Ant plugin by conducting a case study on 200 commits of the open-source project Apache Tomcat. We detected 14 commits with 57 unit tests that contain performance changes. Our subsequent root cause analysis identified nine source code changes that we assigned to three clusters of source code changes known to cause performance changes.:1. Introduction 1.1. Motivation 1.2. Objectives 1.3. Organization 2. Foundations 2.1. Performance Measurement in Java 2.2. Peass 2.3. Apache Ant 2.4. Apache Tomcat 3. Architecture of the Plugin 3.1. Requirements 3.2. Component Structure 3.3. Integrated Class Structure of Peass and the Plugin 3.4. Build Modification Tasks for Tomcat 4. Implementation 4.1. Changes in Peass 4.2. Changes in Kieker and Kieker-Source-Instrumentation 4.3. Buildfile Modification of the Plugin 4.4. Test Execution of the Plugin 5. Evaluative Case Study 5.1. Setup of the Case Study 5.2. Results of the Case Study 5.3. Performance Optimizations for Ant Applications 6. Related Work 6.1. Performance Analysis Tools 6.2. Test Selection and Test Prioritization Tools 6.3. Empirical Studies on Performance Bugs and Regressions 7. Conclusion and Future Work 7.1. Conclusion 7.2. Future WorkNeue Versionen einer Applikation können Quelltextänderungen enthalten, die die Performance der Applikation verschlechtern. Um eine ausreichende Performance sicherzustellen, ist es notwendig, diese Quelltextänderungen zu identifizieren. Peass ist ein Performance-Analyse-Tool, das die Performance von Unit-Tests misst, um dieses Ziel für Java-Applikationen zu erreichen. Allerdings kann es nur für Java-Applikationen verwendet werden, die eines der Build-Tools Apache Maven oder Gradle nutzen. In dieser Arbeit wird ein Plugin für Peass entwickelt, das es ermöglicht, mit Peass Applikationen zu analysieren, die das Build-Tool Apache Ant nutzen. Peass verwendet die Frameworks Kieker und KoPeMe, um Ausführungs-Traces von Unit-Tests aufzuzeichnen und Antwortzeiten von Unit-Tests zu messen. Daraus resultieren folgende Aufgaben für das Peass-Ant-Plugin: (1) Kieker und KoPeMe als Abhängigkeiten hinzufügen und (2) Transformierte Unit-Tests ausführen. Für die erste Aufgabe löst das Plugin programmbasiert die transitiven Abhängigkeiten von Kieker und KoPeMe auf und modifiziert die XML-Build-Dateien der zu testenden Applikation. Für die zweite Aufgabe steuert das Plugin den Prozess, der die Testausführung umgibt, und führt spezielle Ant-Kommandos aus, die die Testausführung vorbereiten und starten. Dabei implementiert es Performanceoptimierungen, um auch Applikationen mit einer großen Codebasis analysieren zu können. Um die Lauffähigkeit des Plugins sicherzustellen, wurden zusätzlich Verbesserungen an Peass und Kieker vorgenommen. Dabei wurden drei Erweiterungen implementiert und zwölf Bugs identifiziert. Um das Peass-Ant-Plugin zu bewerten, wurde eine Fallstudie mit 200 Commits des Open-Source-Projekts Apache Tomcat durchgeführt. Dabei wurden 14 Commits mit 57 Unit-Tests erkannt, die Performanceänderungen enthalten. Unsere anschließende Ursachenanalyse identifizierte neun verursachende Quelltextänderungen. Diese wurden drei Clustern von Quelltextänderungen zugeordnet, von denen bekannt ist, dass sie eine Veränderung der Performance verursachen.:1. Introduction 1.1. Motivation 1.2. Objectives 1.3. Organization 2. Foundations 2.1. Performance Measurement in Java 2.2. Peass 2.3. Apache Ant 2.4. Apache Tomcat 3. Architecture of the Plugin 3.1. Requirements 3.2. Component Structure 3.3. Integrated Class Structure of Peass and the Plugin 3.4. Build Modification Tasks for Tomcat 4. Implementation 4.1. Changes in Peass 4.2. Changes in Kieker and Kieker-Source-Instrumentation 4.3. Buildfile Modification of the Plugin 4.4. Test Execution of the Plugin 5. Evaluative Case Study 5.1. Setup of the Case Study 5.2. Results of the Case Study 5.3. Performance Optimizations for Ant Applications 6. Related Work 6.1. Performance Analysis Tools 6.2. Test Selection and Test Prioritization Tools 6.3. Empirical Studies on Performance Bugs and Regressions 7. Conclusion and Future Work 7.1. Conclusion 7.2. Future Wor

    The Semantic Shadow : Combining User Interaction with Context Information for Semantic Web-Site Annotation

    Get PDF
    This thesis develops the concept of the Semantic Shadow (SemS), a model for managing contentual and structural annotations on web page elements and their values. The model supports a contextual weighting of the annotated information, allowing to specify the annotation values in relation to the evaluation context. A procedure is presented, which allows to manage and process this context-dependent meta information on web page elements using a dedicated programming interface. Two distinct implementations for the model have been developed: One based on Java objects, the other using the Resource Description Framework (RDF) as modeling backend. This RDF-based storage allows to integrate the annotations of the Semantic Shadow with other information of the Semantic Web. To demonstrate the application of the Semantic Shadow concept, a procedure to optimize web based user interfaces based on the structural semantics has been developed: Assuming a mobile client, a requested web page is dynamically adapted by a proxy prototype, where the context-awareness of the adaptation can be directly modeled alongside with the structural annotations. To overcome the drawback of missing annotations for existing web pages, this thesis introduces a concept to derive context-dependent meta-information on the web pages from their usage: From the observation of the users' interaction with a web page, certain context-dependent structural information about the concerned web page elements can be derived and stored in the annotation model of the Semantic Shadow concept.In dieser Arbeit wird das Konzept des Semantic Shadow (dt. Semantischer Schatten) entwickelt, ein Programmier-Modell um Webseiten-Elemente mit inhaltsbezogenen und strukturellen Anmerkungen zu versehen. Das Modell unterstützt dabei eine kontextabhängige Gewichtung der Anmerkungen, so dass eine Anmerkung in Bezug zum Auswertungs-Kontext gesetzt werden kann. Zur Verwaltung und Verarbeitung dieser kontextbezogenen Meta-Informationen für Webseiten-Elemente wurde im Rahmen der Arbeit eine Programmierschnittstelle definiert. Dazu wurden zwei Implementierungen der Schnittstelle entwickelt: Eine basiert ausschließlich auf Java-Objekten, die andere baut auf einem RDF-Modell auf. Die RDF-basierte Persistierung erlaubt eine Integration der Semantic-Shadow-Anmerkungen mit anderen Anwendungen des Semantic Webs. Um die Anwendungsmöglichkeiten des Semantic-Shadow-Konzepts darzustellen, wurde eine Vorgehensweise zur Optimierung von webbasierten Benutzerschnittstellen auf Grundlage von semantischen Strukturinformationen entwickelt: Wenn ein mobiler Benutzer eine Webseite anfordert, wird diese dynamisch durch einen Proxy angepasst. Die Kontextabhängigkeit dieser Anpassung wird dabei bereits direkt mit den Struktur-Anmerkungen modelliert. Für bestehende Webseiten liegen zumeist keine Annotationen vor. Daher wird in dieser Arbeit ein Konzept vorgestellt, kontextabhängige Meta-Informationen aus der Benutzung der Webseiten zu bestimmen: Durch Beobachtung der Benutzer-Interaktionen mit den Webseiten-Elementen ist es möglich bestimmte kontextabhängige Strukturinformationen abzuleiten und als Anmerkungen im Modell des Semantic-Shadow-Konzepts zu persistieren

    A web transconding framework base on user behaviour evaluation

    Get PDF
    111 p.La Web está en constante crecimiento y cada vez son mas los servicios que se ofrecendesde la misma. Esto hace que la Web se esté convirtiendo en una herramienta básicapara la vida diaria [Wellman and Haythornthwaite, 2008]. Sin embargo, para que la webalcance su máximo potencial hay que afrontar algunos retos, tales como la diversidad deusuarios y de dispositivos [Shneiderman, 2000]. Cada persona es única y tiene diversashabilidades y preferencias. Además, en muchas ocasiones las necesidades de unapersona pueden ser contrapuestas a las necesidades de otras. Por ejemplo, una personacon ceguera necesita un tipo de página web lineal y sin imágenes, mientras que unapersona con problemas cognitivos necesita una web gráfica con el mínimo texto posible.La accesibilidad a la web se ha centrado principalmente en mejorar métodos dediseño y evaluación (a partir de pautas) que permitan crear nuevas páginas webaccesibles para todos. Sin embargo este enfoque no resuelve el acceso a las páginas queya han sido diseñadas sin tener en cuenta su accesibilidad. Además, dada la diversidadde usuarios y de dispositivos, incluso las páginas accesibles pueden presentar barreras ausuarios concretos utilizando determinados dispositivos.Como alternativa, el transcoding es una técnica que transforma páginas no accesiblesen accesibles de manera automática, sin necesidad de que intervenga el desarrollador dela página en la transformación [Asakawa and Takagi, 2008]. Además, durante elproceso de recodificación es posible aplicar técnicas de adaptación que permitan adaptarla página a las necesidades de los usuarios.Para que las adaptaciones automáticas sean adecuadas, es necesario conocer elpropósito de cada uno de los elementos que aparecen en la página web. Por ejemplo, sise trata de un menú, del contenido principal, o de una tabla, etc. Gracias a las websemántica y a los lenguajes de marcado tales como WAI-ARIA [2016] o HTML5[2016] es posible añadir etiquetas semánticas que permitan realizar las transformacionesadecuadamente.Por otro lado, para poder adaptar el contenido se requiere mucha más información.Por ejemplo, qué elementos pueden causar problemas, aprender cuales son lasestrategias de navegación los usuarios, etc. Existen diferentes maneras adquirir esteconocimiento, que además pueden servir para medir la accesibilidad, tales comoherramientas automáticas, evaluaciones de expertos o las evaluaciones de usuario.Las herramientas automáticas comprueban la accesibilidad o usabilidad en base a lasnormas de accesibilidad estándar, tales como las WCAG 2.0 [2016] sin intervenciónhumana. Pero este tipo de herramientas no pueden comprobar algunos tipo de pautas,por lo que es necesaria la participación de expertos que juzguen su cumplimiento.Por otro lado, en la evaluación llevada a cabo por expertos, el evaluador puede tomardiferentes roles: se puede poner en el papel del usuario, o bien puede evaluar losproblemas más comunes. La eficacia de estos métodos suele depender en gran medidadel conocimiento que tiene el evaluador sobre los usuarios, su contexto, lasherramientas Web, etc.Cuando el factor económico no es un problema, la evaluación con usuarios es lamejor opción. Con este método es posible detectar cuales son los problemas reales delos usuarios: es posible observar las estrategias de interacción de los usuarios y ademásmedir la accesibilidad de las páginas durante el uso. Es importante tener en cuenta queaunque una página sea ¿oficialmente¿ accesible, puede resultar que no lo es paradeterminadas personas, por diferentes causas, tales como necesidades especiales, nivelde experiencia y conocimiento, etc. [Vigo and Harper, 2013].En esta tesis se presenta un marco de trabajo que permite hacer accesibles las páginasweb previamente inaccesibles y, además, adecuarlas a las necesidades de cada persona.Para ello utilizamos técnicas de transcoding basadas en métodos de evaluación delcomportamiento del usuario.A partir del modelo conceptual propuesto, se han diseñado dos componentes: unaherramienta de transcoding, Model Access, y una herramienta para la realización de testremotos con usuarios con discapacidad, RemoTest.La aplicación de Model Access para el transcoding requiere:¿ páginas web que hayan sido marcadas con meta-datos semánticos, para lo quehemos utilizado una extensión desarrollada por nosostros del lenguaje demarcado WAI-ARIA¿ un conjunto de técnicas de adaptación, para lo que hemos hecho una selección apartir de la literatura y de nuestros propios test con usuarios reales.¿ un sistema de razonamiento que permita decidir qué técnicas de adaptaciónaplicar y a qué elementos anotados se pueden aplicar, para lo que hemosdiseñado una ontología específica.¿ un modelo que contenga las características del usuario (restricciones ypreferencias) y del dispositivo que está usando para acceder a la web.A partir de estos elementos, la herramienta de transcoding modifica el código de lapágina original (no accesible) para convertirla en una página accesible y adaptada a losrequisitos de cada usuario específico.RemoTestTanto el diseño de técnicas de adaptación, como la validación de las páginas generadas,o la creación de los modelos requieren la realización de test con usuarios. Para ello se hadesarrollado una herramienta de experimentación remota con participación de personascon discapacidad. Esta herramienta, utiliza el Lenguaje de Especificación Experimental(ESL) y el Lenguaje de Control de la Sesión Experimental (ESCL) que han sidodiseñados y especificados mediante lenguaje de marcado XML.RemoTest es una herramienta para llevar a cabo test de usuario con personas condiscapacidad de manera remota o local. RemoTest provee a los investigadores loselementos necesarios para diseñar, llevar a cabo y analizar experimentos con personascon discapacidad. Algunos de los posibles usos de la herramienta son: la evaluación dela accesibilidad y/o usabilidad de la páginas web, la evaluación de las adaptaciones, elanálisis del comportamiento del usuario, la creación de modelos válidos para elrazonamiento.Para poder llevar a cabo experimentos con personas con discapacidad, es necesariocumplir una serie de requisitos:¿ que las interfaces de la herramienta sean accesibles¿ que los usuario puedan especificar la tecnología de apoyo que usan y sus datosdemográficos¿ que puedan realizar ejercicios de entrenamiento previos a la sesión experimentaly puedan seleccionar las tareasCon estos objetivos en mente, y con la participación durante el desarrollo de personascon discapacidad, se creó RemoTest. La herramienta está compuesta por cuatromódulos, Módulo del Experimentador, Módulo Coordinador, Módulo del Participantey por el Módulo Visor de Resultados.Módulo del ExperimentadorEste módulo ayuda al investigador a diseñar un experimento mediante una interfazgráfica en unos sencillos pasos. Primero se debe especificar el tipo de experimento:Web o cuestionario. En el segundo se definen los estímulos, las tareas así como lasposibles dependencias entre las mismas. Para que tanto los cuestionarios creados comolas páginas de información sean accesibles, la herramienta requiere al investigador queintroduzca los textos o imágenes que sean necesarios.En el tercer paso, se define el procedimiento del experimento, el número de grupos,cual va a ser el orden de las tareas etc. Por último solo queda seleccionar los datos quese quieren recoger y seleccionar los participantes que formarán parte del estudio.Una vez recogida toda la información sobre el diseño del experimento se crea unfichero XML basado en el lenguaje de diseño experimental (ESL) que se envía almódulo coordinador.Módulo CoordinadorEl modulo coordinador cumple las siguientes funciones:¿ guardar los experimentos diseñados¿ crear los estímulos y pantallas de información¿ crear la sesión experimental para cada usuario en el lenguaje de control desesiones experimentales (ESCL)¿ guardar los datos recibidos del módulo participante¿ mantener la base de datos de participantes e investigadoresMódulo del ParticipanteEste módulo es el encargado de interpretar el lenguaje de control de la sesiónexperimental (ESCL) para llevar a cabo la sesión, presentado al participante losestímulos y páginas de información que sean necesarias. Además, el móduloparticipante, recoge los eventos generados por el usuario, como por ejemplo losproducidos por el movimiento del cursor, el teclado o los del propio navegador. Estoseventos son enviados al coordinador para su posterior análisis con el módulo visor deresultados.Módulo Visor de ResultadosEste es el módulo encargado de interpretar y calcular diferentes medidas de los datosrecogidos. La herramienta es capaz de calcular valores tales como la velocidad, ladistancia recorrida o la relación entre la distancia optima al objetivo y la recorrida por elcursor. Por otro lado, también realiza cálculos centrados en la usabilidad de la páginaweb. Como, por ejemplo, el tiempo requerido para realizar la tarea, si el usuario se haperdido navegando mientras realizaba la tarea, así como por qué zonas de la página hapasado el cursor.Para poder extraer medidas fiables del cursor es necesario usar algoritmos quepermitan dilucidar cuándo el usuario ha decidido mover el cursor para seleccionar elobjetivo. Esto es importante, ya que no siempre el usuario mueve el cursor para haceruna selección. Algunas personas mueven el cursor mientras leen, o se entretienen. Unelemento clave de estos algoritmos es diferenciar las pausas causadas por el no uso delratón, de las pausas causadas por las correcciones de la trayectoria del cursor. Laherramienta diseñada por nosotros, al contrario que los trabajos relacionados en laliteratura, calcula un valor para cada usuario con el objetivo de diferenciar los dos tiposde pausa.Model AccessModel Access es un sistema de transcoding que adapta páginas web anotadas medianteuna extensión del lenguaje de marcado WAI-ARIA. El sistema hace uso de unaontología para modelar el usuario, el dispositivo, la tecnología de apoyo, el sistema deanotación y las técnicas de adaptación.La potencia de los sistemas de adaptación depende en gran medida de el número detécnicas de adaptación que son capaces de aplicar. Por ello, se realizó una búsquedaintensiva en la literatura de las técnicas de adaptación que pudieran ayudar a laspersonas con necesidades especiales. Además, también se incluyeron otras técnicas deadaptación que surgieron de las necesidades que detectamos en los experimentosllevados a cabo anteriormente.Model Access está compuesto por cuatro módulos principales: el Módulo dePresentación, que se ejecuta en el cliente del usuario, y el Módulo de Adaptaciones, elMódulo Coordinador y la Base de Conocimiento, que se ejecutan en un servidorEn la figura 1 podemos observar, cómo es el proceso de transformación de unapágina web anotada y otra sin anotar pero con el lenguaje WAI-ARIA ya incluido. Elmódulo de presentación se encarga de recoger la página web a la que quiere ir el usuariopara enviársela al módulo del coordinador. Este consulta en la base de conocimientoqué adaptaciones son aplicables al usuario, el dispositivo, la tecnología de apoyo y lapágina web específicos. Esta información es enviada al módulo de adaptaciones queejecuta las adaptaciones pertinentes.Dado que la lógica de las adaptaciones se encuentra en la base de conocimiento, es muysencillo crear nuevas adaptaciones para nuevos usuarios sin que sea necesario realizarFigure 1. Arquitectura general y funcionamientocambios que en la base de conocimiento.AnotaciónUno de los problemas de los sistemas de transcoding es la necesidad de anotar loselementos de la interfaz para producir adaptaciones adecuadas. Al hacer uso de unaextensión de WAI-ARIA, las páginas que ya incluyen este lenguaje de marcado puedenser adaptadas, ya que un gran número de adaptaciones hace uso de los roles ypropiedades presentes en este lenguaje.Las páginas que no incluyen marcas WAI-ARIA se pueden anotar mediante loselementos (clases e ids) de la CSS de la página. Anotando unos poco elementos de laCSS de una página se puede conseguir la anotación de un sitio web entero, ya que elCSS suele ser común para todo el sitio web.EvaluacionesPara comprobar la utilidad de las herramientas desarrolladas y del modelo conceptual,se llevaron a cabo diferentes evaluaciones.En primer lugar se analizó la accesibilidad de la propia herramienta RemoTest y desu proceso de instalación con 36 personas, de las cuales el 36% tenían problemas demovilidad, el 27% eran ciegas, el 22% tenían baja visión, mientras que el resto no teníaninguna discapacidad.Para poder detectar los problemas que pudieran encontar los usuarios al navegar enla web, se llevaron a cabo dos evaluaciones con la herramienta RemoTest: una conpersonas con baja visión y otra con personas con movilidad reducida.De los resultados obtenidos en estas evaluaciones se crearon nuevas técnicas deadaptación. Además, también se realizaron cambios en la base de conocimiento usadapor Model Acess para adecuarse a las necesidades detectadas.Una vez que se actualizó Model Acess, se llevaron a cabo otras dos evaluaciones conpersonas con baja visión y con personas con movilidad reducida. En la primera de ellasse midió la eficacia de las adaptaciones hechas por Model Access para personas conbaja visión usando un PC. Mientras que en la segunda se pudo comprobar la eficacia delas adaptaciones y el funcionamiento de tres métodos de interacción alternativosdedicados a personas con movilidad reducida usando un dispositivo móvil táctil
    corecore