29 research outputs found

    How to Extract the Geometry and Topology from Very Large 3D Segmentations

    Full text link
    Segmentation is often an essential intermediate step in image analysis. A volume segmentation characterizes the underlying volume image in terms of geometric information--segments, faces between segments, curves in which several faces meet--as well as a topology on these objects. Existing algorithms encode this information in designated data structures, but require that these data structures fit entirely in Random Access Memory (RAM). Today, 3D images with several billion voxels are acquired, e.g. in structural neurobiology. Since these large volumes can no longer be processed with existing methods, we present a new algorithm which performs geometry and topology extraction with a runtime linear in the number of voxels and log-linear in the number of faces and curves. The parallelizable algorithm proceeds in a block-wise fashion and constructs a consistent representation of the entire volume image on the hard drive, making the structure of very large volume segmentations accessible to image analysis. The parallelized C++ source code, free command line tools and MATLAB mex files are avilable from http://hci.iwr.uni-heidelberg.de/software.phpComment: C++ source code, free command line tools and MATLAB mex files are avilable from http://hci.iwr.uni-heidelberg.de/software.ph

    Calibration of DART Radiative Transfer Model with Satellite Images for Simulating Albedo and Thermal Irradiance Images and 3D Radiative Budget of Urban Environment

    Get PDF
    Remote sensing is increasingly used for managing urban environment. In this context, the H2020 project URBANFLUXES aims to improve our knowledge on urban anthropogenic heat fluxes, with the specific study of three cities: London, Basel and Heraklion. Usually, one expects to derive directly 2 major urban parameters from remote sensing: the albedo and thermal irradiance. However, the determination of these two parameters is seriously hampered by complexity of urban architecture. For example, urban reflectance and brightness temperature are far from isotropic and are spatially heterogeneous. Hence, radiative transfer models that consider the complexity of urban architecture when simulating remote sensing signals are essential tools. Even for these sophisticated models, there is a major constraint for an operational use of remote sensing: the complex 3D distribution of optical properties and temperatures in urban environments. Here, the work is conducted with the DART (Discrete Anisotropic Radiative Transfer) model. It is a comprehensive physically based 3D radiative transfer model that simulates optical signals at the entrance of imaging spectro-radiometers and LiDAR scanners on board of satellites and airplanes, as well as the 3D radiative budget, of urban and natural landscapes for any experimental (atmosphere, topography,…) and instrumental (sensor altitude, spatial resolution, UV to thermal infrared,…) configuration. Paul Sabatier University distributes free licenses for research activities. This paper presents the calibration of DART model with high spatial resolution satellite images (Landsat 8, Sentinel 2, etc.) that are acquired in the visible (VIS) / near infrared (NIR) domain and in the thermal infrared (TIR) domain. Here, the work is conducted with an atmospherically corrected Landsat 8 image and Bale city, with its urban database. The calibration approach in the VIS/IR domain encompasses 5 steps for computing the 2D distribution (image) of urban albedo at satellite spatial resolution. (1) DART simulation of satellite image at very high spatial resolution (e.g., 50cm) per satellite spectral band. Atmosphere conditions are specific to the satellite image acquisition. (2) Spatial resampling of DART image at the coarser spatial resolution of the available satellite image, per spectral band. (3) Iterative derivation of the urban surfaces (roofs, walls, streets, vegetation,…) optical properties as derived from pixel-wise comparison of DART and satellite images, independently per spectral band. (4) Computation of the band albedo image of the city, per spectral band. (5) Computation of the image of the city albedo and VIS/NIR exitance, as an integral over all satellite spectral bands. In order to get a time series of albedo and VIS/NIR exitance, even in the absence of satellite images, ECMWF information about local irradiance and atmosphere conditions are used. A similar approach is used for calculating the city thermal exitance using satellite images acquired in the thermal infrared domain. Finally, DART simulations that are conducted with the optical properties derived from remote sensing images give also the 3D radiative budget of the city at any date including the date of the satellite image acquisition

    Automated Segmentation of Large 3D Images of Nervous Systems Using a Higher-order Graphical Model

    Get PDF
    This thesis presents a new mathematical model for segmenting volume images. The model is an energy function defined on the state space of all possibilities to remove or preserve splitting faces from an initial over-segmentation of the 3D image into supervoxels. It decomposes into potential functions that are learned automatically from a small amount of empirical training data. The learning is based on features of the distribution of gray values in the volume image and on features of the geometry and topology of the supervoxel segmentation. To be able to extract these features from large 3D images that consist of several billion voxels, a new algorithm is presented that constructs a suitable representation of the geometry and topology of volume segmentations in a block-wise fashion, in log-linear runtime (in the number of voxels) and in parallel, using only a prescribed amount of memory. At the core of this thesis is the optimization problem of finding, for a learned energy function, a segmentation with minimal energy. This optimization problem is difficult because the energy function consists of 3rd and 4th order potential functions that are not submodular. For sufficiently small problems with 10,000 degrees of freedom, it can be solved to global optimality using Mixed Integer Linear Programming. For larger models with 10,000,000 degrees of freedom, an approximate optimizer is proposed and compared to state-of-the-art alternatives. Using these new techniques and a unified data structure for multi-variate data and functions, a complete processing chain for segmenting large volume images, from the restoration of the raw volume image to the visualization of the final segmentation, has been implemented in C++. Results are shown for an application in neuroscience, namely the segmentation of a part of the inner plexiform layer of rabbit retina in a volume image of 2048 x 1792 x 2048 voxels that was acquired by means of Serial Block Face Scanning Electron Microscopy (Denk and Horstmann, 2004) with a resolution of 22nm x 22nm x 30nm. The quality of the automated segmentation as well as the improvement over a simpler model that does not take geometric context into account, are confirmed by a quantitative comparison with the gold standard

    A web transconding framework base on user behaviour evaluation

    Get PDF
    111 p.La Web está en constante crecimiento y cada vez son mas los servicios que se ofrecendesde la misma. Esto hace que la Web se esté convirtiendo en una herramienta básicapara la vida diaria [Wellman and Haythornthwaite, 2008]. Sin embargo, para que la webalcance su máximo potencial hay que afrontar algunos retos, tales como la diversidad deusuarios y de dispositivos [Shneiderman, 2000]. Cada persona es única y tiene diversashabilidades y preferencias. Además, en muchas ocasiones las necesidades de unapersona pueden ser contrapuestas a las necesidades de otras. Por ejemplo, una personacon ceguera necesita un tipo de página web lineal y sin imágenes, mientras que unapersona con problemas cognitivos necesita una web gráfica con el mínimo texto posible.La accesibilidad a la web se ha centrado principalmente en mejorar métodos dediseño y evaluación (a partir de pautas) que permitan crear nuevas páginas webaccesibles para todos. Sin embargo este enfoque no resuelve el acceso a las páginas queya han sido diseñadas sin tener en cuenta su accesibilidad. Además, dada la diversidadde usuarios y de dispositivos, incluso las páginas accesibles pueden presentar barreras ausuarios concretos utilizando determinados dispositivos.Como alternativa, el transcoding es una técnica que transforma páginas no accesiblesen accesibles de manera automática, sin necesidad de que intervenga el desarrollador dela página en la transformación [Asakawa and Takagi, 2008]. Además, durante elproceso de recodificación es posible aplicar técnicas de adaptación que permitan adaptarla página a las necesidades de los usuarios.Para que las adaptaciones automáticas sean adecuadas, es necesario conocer elpropósito de cada uno de los elementos que aparecen en la página web. Por ejemplo, sise trata de un menú, del contenido principal, o de una tabla, etc. Gracias a las websemántica y a los lenguajes de marcado tales como WAI-ARIA [2016] o HTML5[2016] es posible añadir etiquetas semánticas que permitan realizar las transformacionesadecuadamente.Por otro lado, para poder adaptar el contenido se requiere mucha más información.Por ejemplo, qué elementos pueden causar problemas, aprender cuales son lasestrategias de navegación los usuarios, etc. Existen diferentes maneras adquirir esteconocimiento, que además pueden servir para medir la accesibilidad, tales comoherramientas automáticas, evaluaciones de expertos o las evaluaciones de usuario.Las herramientas automáticas comprueban la accesibilidad o usabilidad en base a lasnormas de accesibilidad estándar, tales como las WCAG 2.0 [2016] sin intervenciónhumana. Pero este tipo de herramientas no pueden comprobar algunos tipo de pautas,por lo que es necesaria la participación de expertos que juzguen su cumplimiento.Por otro lado, en la evaluación llevada a cabo por expertos, el evaluador puede tomardiferentes roles: se puede poner en el papel del usuario, o bien puede evaluar losproblemas más comunes. La eficacia de estos métodos suele depender en gran medidadel conocimiento que tiene el evaluador sobre los usuarios, su contexto, lasherramientas Web, etc.Cuando el factor económico no es un problema, la evaluación con usuarios es lamejor opción. Con este método es posible detectar cuales son los problemas reales delos usuarios: es posible observar las estrategias de interacción de los usuarios y ademásmedir la accesibilidad de las páginas durante el uso. Es importante tener en cuenta queaunque una página sea ¿oficialmente¿ accesible, puede resultar que no lo es paradeterminadas personas, por diferentes causas, tales como necesidades especiales, nivelde experiencia y conocimiento, etc. [Vigo and Harper, 2013].En esta tesis se presenta un marco de trabajo que permite hacer accesibles las páginasweb previamente inaccesibles y, además, adecuarlas a las necesidades de cada persona.Para ello utilizamos técnicas de transcoding basadas en métodos de evaluación delcomportamiento del usuario.A partir del modelo conceptual propuesto, se han diseñado dos componentes: unaherramienta de transcoding, Model Access, y una herramienta para la realización de testremotos con usuarios con discapacidad, RemoTest.La aplicación de Model Access para el transcoding requiere:¿ páginas web que hayan sido marcadas con meta-datos semánticos, para lo quehemos utilizado una extensión desarrollada por nosostros del lenguaje demarcado WAI-ARIA¿ un conjunto de técnicas de adaptación, para lo que hemos hecho una selección apartir de la literatura y de nuestros propios test con usuarios reales.¿ un sistema de razonamiento que permita decidir qué técnicas de adaptaciónaplicar y a qué elementos anotados se pueden aplicar, para lo que hemosdiseñado una ontología específica.¿ un modelo que contenga las características del usuario (restricciones ypreferencias) y del dispositivo que está usando para acceder a la web.A partir de estos elementos, la herramienta de transcoding modifica el código de lapágina original (no accesible) para convertirla en una página accesible y adaptada a losrequisitos de cada usuario específico.RemoTestTanto el diseño de técnicas de adaptación, como la validación de las páginas generadas,o la creación de los modelos requieren la realización de test con usuarios. Para ello se hadesarrollado una herramienta de experimentación remota con participación de personascon discapacidad. Esta herramienta, utiliza el Lenguaje de Especificación Experimental(ESL) y el Lenguaje de Control de la Sesión Experimental (ESCL) que han sidodiseñados y especificados mediante lenguaje de marcado XML.RemoTest es una herramienta para llevar a cabo test de usuario con personas condiscapacidad de manera remota o local. RemoTest provee a los investigadores loselementos necesarios para diseñar, llevar a cabo y analizar experimentos con personascon discapacidad. Algunos de los posibles usos de la herramienta son: la evaluación dela accesibilidad y/o usabilidad de la páginas web, la evaluación de las adaptaciones, elanálisis del comportamiento del usuario, la creación de modelos válidos para elrazonamiento.Para poder llevar a cabo experimentos con personas con discapacidad, es necesariocumplir una serie de requisitos:¿ que las interfaces de la herramienta sean accesibles¿ que los usuario puedan especificar la tecnología de apoyo que usan y sus datosdemográficos¿ que puedan realizar ejercicios de entrenamiento previos a la sesión experimentaly puedan seleccionar las tareasCon estos objetivos en mente, y con la participación durante el desarrollo de personascon discapacidad, se creó RemoTest. La herramienta está compuesta por cuatromódulos, Módulo del Experimentador, Módulo Coordinador, Módulo del Participantey por el Módulo Visor de Resultados.Módulo del ExperimentadorEste módulo ayuda al investigador a diseñar un experimento mediante una interfazgráfica en unos sencillos pasos. Primero se debe especificar el tipo de experimento:Web o cuestionario. En el segundo se definen los estímulos, las tareas así como lasposibles dependencias entre las mismas. Para que tanto los cuestionarios creados comolas páginas de información sean accesibles, la herramienta requiere al investigador queintroduzca los textos o imágenes que sean necesarios.En el tercer paso, se define el procedimiento del experimento, el número de grupos,cual va a ser el orden de las tareas etc. Por último solo queda seleccionar los datos quese quieren recoger y seleccionar los participantes que formarán parte del estudio.Una vez recogida toda la información sobre el diseño del experimento se crea unfichero XML basado en el lenguaje de diseño experimental (ESL) que se envía almódulo coordinador.Módulo CoordinadorEl modulo coordinador cumple las siguientes funciones:¿ guardar los experimentos diseñados¿ crear los estímulos y pantallas de información¿ crear la sesión experimental para cada usuario en el lenguaje de control desesiones experimentales (ESCL)¿ guardar los datos recibidos del módulo participante¿ mantener la base de datos de participantes e investigadoresMódulo del ParticipanteEste módulo es el encargado de interpretar el lenguaje de control de la sesiónexperimental (ESCL) para llevar a cabo la sesión, presentado al participante losestímulos y páginas de información que sean necesarias. Además, el móduloparticipante, recoge los eventos generados por el usuario, como por ejemplo losproducidos por el movimiento del cursor, el teclado o los del propio navegador. Estoseventos son enviados al coordinador para su posterior análisis con el módulo visor deresultados.Módulo Visor de ResultadosEste es el módulo encargado de interpretar y calcular diferentes medidas de los datosrecogidos. La herramienta es capaz de calcular valores tales como la velocidad, ladistancia recorrida o la relación entre la distancia optima al objetivo y la recorrida por elcursor. Por otro lado, también realiza cálculos centrados en la usabilidad de la páginaweb. Como, por ejemplo, el tiempo requerido para realizar la tarea, si el usuario se haperdido navegando mientras realizaba la tarea, así como por qué zonas de la página hapasado el cursor.Para poder extraer medidas fiables del cursor es necesario usar algoritmos quepermitan dilucidar cuándo el usuario ha decidido mover el cursor para seleccionar elobjetivo. Esto es importante, ya que no siempre el usuario mueve el cursor para haceruna selección. Algunas personas mueven el cursor mientras leen, o se entretienen. Unelemento clave de estos algoritmos es diferenciar las pausas causadas por el no uso delratón, de las pausas causadas por las correcciones de la trayectoria del cursor. Laherramienta diseñada por nosotros, al contrario que los trabajos relacionados en laliteratura, calcula un valor para cada usuario con el objetivo de diferenciar los dos tiposde pausa.Model AccessModel Access es un sistema de transcoding que adapta páginas web anotadas medianteuna extensión del lenguaje de marcado WAI-ARIA. El sistema hace uso de unaontología para modelar el usuario, el dispositivo, la tecnología de apoyo, el sistema deanotación y las técnicas de adaptación.La potencia de los sistemas de adaptación depende en gran medida de el número detécnicas de adaptación que son capaces de aplicar. Por ello, se realizó una búsquedaintensiva en la literatura de las técnicas de adaptación que pudieran ayudar a laspersonas con necesidades especiales. Además, también se incluyeron otras técnicas deadaptación que surgieron de las necesidades que detectamos en los experimentosllevados a cabo anteriormente.Model Access está compuesto por cuatro módulos principales: el Módulo dePresentación, que se ejecuta en el cliente del usuario, y el Módulo de Adaptaciones, elMódulo Coordinador y la Base de Conocimiento, que se ejecutan en un servidorEn la figura 1 podemos observar, cómo es el proceso de transformación de unapágina web anotada y otra sin anotar pero con el lenguaje WAI-ARIA ya incluido. Elmódulo de presentación se encarga de recoger la página web a la que quiere ir el usuariopara enviársela al módulo del coordinador. Este consulta en la base de conocimientoqué adaptaciones son aplicables al usuario, el dispositivo, la tecnología de apoyo y lapágina web específicos. Esta información es enviada al módulo de adaptaciones queejecuta las adaptaciones pertinentes.Dado que la lógica de las adaptaciones se encuentra en la base de conocimiento, es muysencillo crear nuevas adaptaciones para nuevos usuarios sin que sea necesario realizarFigure 1. Arquitectura general y funcionamientocambios que en la base de conocimiento.AnotaciónUno de los problemas de los sistemas de transcoding es la necesidad de anotar loselementos de la interfaz para producir adaptaciones adecuadas. Al hacer uso de unaextensión de WAI-ARIA, las páginas que ya incluyen este lenguaje de marcado puedenser adaptadas, ya que un gran número de adaptaciones hace uso de los roles ypropiedades presentes en este lenguaje.Las páginas que no incluyen marcas WAI-ARIA se pueden anotar mediante loselementos (clases e ids) de la CSS de la página. Anotando unos poco elementos de laCSS de una página se puede conseguir la anotación de un sitio web entero, ya que elCSS suele ser común para todo el sitio web.EvaluacionesPara comprobar la utilidad de las herramientas desarrolladas y del modelo conceptual,se llevaron a cabo diferentes evaluaciones.En primer lugar se analizó la accesibilidad de la propia herramienta RemoTest y desu proceso de instalación con 36 personas, de las cuales el 36% tenían problemas demovilidad, el 27% eran ciegas, el 22% tenían baja visión, mientras que el resto no teníaninguna discapacidad.Para poder detectar los problemas que pudieran encontar los usuarios al navegar enla web, se llevaron a cabo dos evaluaciones con la herramienta RemoTest: una conpersonas con baja visión y otra con personas con movilidad reducida.De los resultados obtenidos en estas evaluaciones se crearon nuevas técnicas deadaptación. Además, también se realizaron cambios en la base de conocimiento usadapor Model Acess para adecuarse a las necesidades detectadas.Una vez que se actualizó Model Acess, se llevaron a cabo otras dos evaluaciones conpersonas con baja visión y con personas con movilidad reducida. En la primera de ellasse midió la eficacia de las adaptaciones hechas por Model Access para personas conbaja visión usando un PC. Mientras que en la segunda se pudo comprobar la eficacia delas adaptaciones y el funcionamiento de tres métodos de interacción alternativosdedicados a personas con movilidad reducida usando un dispositivo móvil táctil

    Training of Crisis Mappers and Map Production from Multi-sensor Data: Vernazza Case Study (Cinque Terre National Park, Italy)

    Get PDF
    This aim of paper is to presents the development of a multidisciplinary project carried out by the cooperation between Politecnico di Torino and ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action). The goal of the project was the training in geospatial data acquiring and processing for students attending Architecture and Engineering Courses, in order to start up a team of "volunteer mappers". Indeed, the project is aimed to document the environmental and built heritage subject to disaster; the purpose is to improve the capabilities of the actors involved in the activities connected in geospatial data collection, integration and sharing. The proposed area for testing the training activities is the Cinque Terre National Park, registered in the World Heritage List since 1997. The area was affected by flood on the 25th of October 2011. According to other international experiences, the group is expected to be active after emergencies in order to upgrade maps, using data acquired by typical geomatic methods and techniques such as terrestrial and aerial Lidar, close-range and aerial photogrammetry, topographic and GNSS instruments etc.; or by non conventional systems and instruments such us UAV, mobile mapping etc. The ultimate goal is to implement a WebGIS platform to share all the data collected with local authorities and the Civil Protectio

    A web transconding framework base on user behaviour evaluation

    Get PDF
    111 p.La Web está en constante crecimiento y cada vez son mas los servicios que se ofrecendesde la misma. Esto hace que la Web se esté convirtiendo en una herramienta básicapara la vida diaria [Wellman and Haythornthwaite, 2008]. Sin embargo, para que la webalcance su máximo potencial hay que afrontar algunos retos, tales como la diversidad deusuarios y de dispositivos [Shneiderman, 2000]. Cada persona es única y tiene diversashabilidades y preferencias. Además, en muchas ocasiones las necesidades de unapersona pueden ser contrapuestas a las necesidades de otras. Por ejemplo, una personacon ceguera necesita un tipo de página web lineal y sin imágenes, mientras que unapersona con problemas cognitivos necesita una web gráfica con el mínimo texto posible.La accesibilidad a la web se ha centrado principalmente en mejorar métodos dediseño y evaluación (a partir de pautas) que permitan crear nuevas páginas webaccesibles para todos. Sin embargo este enfoque no resuelve el acceso a las páginas queya han sido diseñadas sin tener en cuenta su accesibilidad. Además, dada la diversidadde usuarios y de dispositivos, incluso las páginas accesibles pueden presentar barreras ausuarios concretos utilizando determinados dispositivos.Como alternativa, el transcoding es una técnica que transforma páginas no accesiblesen accesibles de manera automática, sin necesidad de que intervenga el desarrollador dela página en la transformación [Asakawa and Takagi, 2008]. Además, durante elproceso de recodificación es posible aplicar técnicas de adaptación que permitan adaptarla página a las necesidades de los usuarios.Para que las adaptaciones automáticas sean adecuadas, es necesario conocer elpropósito de cada uno de los elementos que aparecen en la página web. Por ejemplo, sise trata de un menú, del contenido principal, o de una tabla, etc. Gracias a las websemántica y a los lenguajes de marcado tales como WAI-ARIA [2016] o HTML5[2016] es posible añadir etiquetas semánticas que permitan realizar las transformacionesadecuadamente.Por otro lado, para poder adaptar el contenido se requiere mucha más información.Por ejemplo, qué elementos pueden causar problemas, aprender cuales son lasestrategias de navegación los usuarios, etc. Existen diferentes maneras adquirir esteconocimiento, que además pueden servir para medir la accesibilidad, tales comoherramientas automáticas, evaluaciones de expertos o las evaluaciones de usuario.Las herramientas automáticas comprueban la accesibilidad o usabilidad en base a lasnormas de accesibilidad estándar, tales como las WCAG 2.0 [2016] sin intervenciónhumana. Pero este tipo de herramientas no pueden comprobar algunos tipo de pautas,por lo que es necesaria la participación de expertos que juzguen su cumplimiento.Por otro lado, en la evaluación llevada a cabo por expertos, el evaluador puede tomardiferentes roles: se puede poner en el papel del usuario, o bien puede evaluar losproblemas más comunes. La eficacia de estos métodos suele depender en gran medidadel conocimiento que tiene el evaluador sobre los usuarios, su contexto, lasherramientas Web, etc.Cuando el factor económico no es un problema, la evaluación con usuarios es lamejor opción. Con este método es posible detectar cuales son los problemas reales delos usuarios: es posible observar las estrategias de interacción de los usuarios y ademásmedir la accesibilidad de las páginas durante el uso. Es importante tener en cuenta queaunque una página sea ¿oficialmente¿ accesible, puede resultar que no lo es paradeterminadas personas, por diferentes causas, tales como necesidades especiales, nivelde experiencia y conocimiento, etc. [Vigo and Harper, 2013].En esta tesis se presenta un marco de trabajo que permite hacer accesibles las páginasweb previamente inaccesibles y, además, adecuarlas a las necesidades de cada persona.Para ello utilizamos técnicas de transcoding basadas en métodos de evaluación delcomportamiento del usuario.A partir del modelo conceptual propuesto, se han diseñado dos componentes: unaherramienta de transcoding, Model Access, y una herramienta para la realización de testremotos con usuarios con discapacidad, RemoTest.La aplicación de Model Access para el transcoding requiere:¿ páginas web que hayan sido marcadas con meta-datos semánticos, para lo quehemos utilizado una extensión desarrollada por nosostros del lenguaje demarcado WAI-ARIA¿ un conjunto de técnicas de adaptación, para lo que hemos hecho una selección apartir de la literatura y de nuestros propios test con usuarios reales.¿ un sistema de razonamiento que permita decidir qué técnicas de adaptaciónaplicar y a qué elementos anotados se pueden aplicar, para lo que hemosdiseñado una ontología específica.¿ un modelo que contenga las características del usuario (restricciones ypreferencias) y del dispositivo que está usando para acceder a la web.A partir de estos elementos, la herramienta de transcoding modifica el código de lapágina original (no accesible) para convertirla en una página accesible y adaptada a losrequisitos de cada usuario específico.RemoTestTanto el diseño de técnicas de adaptación, como la validación de las páginas generadas,o la creación de los modelos requieren la realización de test con usuarios. Para ello se hadesarrollado una herramienta de experimentación remota con participación de personascon discapacidad. Esta herramienta, utiliza el Lenguaje de Especificación Experimental(ESL) y el Lenguaje de Control de la Sesión Experimental (ESCL) que han sidodiseñados y especificados mediante lenguaje de marcado XML.RemoTest es una herramienta para llevar a cabo test de usuario con personas condiscapacidad de manera remota o local. RemoTest provee a los investigadores loselementos necesarios para diseñar, llevar a cabo y analizar experimentos con personascon discapacidad. Algunos de los posibles usos de la herramienta son: la evaluación dela accesibilidad y/o usabilidad de la páginas web, la evaluación de las adaptaciones, elanálisis del comportamiento del usuario, la creación de modelos válidos para elrazonamiento.Para poder llevar a cabo experimentos con personas con discapacidad, es necesariocumplir una serie de requisitos:¿ que las interfaces de la herramienta sean accesibles¿ que los usuario puedan especificar la tecnología de apoyo que usan y sus datosdemográficos¿ que puedan realizar ejercicios de entrenamiento previos a la sesión experimentaly puedan seleccionar las tareasCon estos objetivos en mente, y con la participación durante el desarrollo de personascon discapacidad, se creó RemoTest. La herramienta está compuesta por cuatromódulos, Módulo del Experimentador, Módulo Coordinador, Módulo del Participantey por el Módulo Visor de Resultados.Módulo del ExperimentadorEste módulo ayuda al investigador a diseñar un experimento mediante una interfazgráfica en unos sencillos pasos. Primero se debe especificar el tipo de experimento:Web o cuestionario. En el segundo se definen los estímulos, las tareas así como lasposibles dependencias entre las mismas. Para que tanto los cuestionarios creados comolas páginas de información sean accesibles, la herramienta requiere al investigador queintroduzca los textos o imágenes que sean necesarios.En el tercer paso, se define el procedimiento del experimento, el número de grupos,cual va a ser el orden de las tareas etc. Por último solo queda seleccionar los datos quese quieren recoger y seleccionar los participantes que formarán parte del estudio.Una vez recogida toda la información sobre el diseño del experimento se crea unfichero XML basado en el lenguaje de diseño experimental (ESL) que se envía almódulo coordinador.Módulo CoordinadorEl modulo coordinador cumple las siguientes funciones:¿ guardar los experimentos diseñados¿ crear los estímulos y pantallas de información¿ crear la sesión experimental para cada usuario en el lenguaje de control desesiones experimentales (ESCL)¿ guardar los datos recibidos del módulo participante¿ mantener la base de datos de participantes e investigadoresMódulo del ParticipanteEste módulo es el encargado de interpretar el lenguaje de control de la sesiónexperimental (ESCL) para llevar a cabo la sesión, presentado al participante losestímulos y páginas de información que sean necesarias. Además, el móduloparticipante, recoge los eventos generados por el usuario, como por ejemplo losproducidos por el movimiento del cursor, el teclado o los del propio navegador. Estoseventos son enviados al coordinador para su posterior análisis con el módulo visor deresultados.Módulo Visor de ResultadosEste es el módulo encargado de interpretar y calcular diferentes medidas de los datosrecogidos. La herramienta es capaz de calcular valores tales como la velocidad, ladistancia recorrida o la relación entre la distancia optima al objetivo y la recorrida por elcursor. Por otro lado, también realiza cálculos centrados en la usabilidad de la páginaweb. Como, por ejemplo, el tiempo requerido para realizar la tarea, si el usuario se haperdido navegando mientras realizaba la tarea, así como por qué zonas de la página hapasado el cursor.Para poder extraer medidas fiables del cursor es necesario usar algoritmos quepermitan dilucidar cuándo el usuario ha decidido mover el cursor para seleccionar elobjetivo. Esto es importante, ya que no siempre el usuario mueve el cursor para haceruna selección. Algunas personas mueven el cursor mientras leen, o se entretienen. Unelemento clave de estos algoritmos es diferenciar las pausas causadas por el no uso delratón, de las pausas causadas por las correcciones de la trayectoria del cursor. Laherramienta diseñada por nosotros, al contrario que los trabajos relacionados en laliteratura, calcula un valor para cada usuario con el objetivo de diferenciar los dos tiposde pausa.Model AccessModel Access es un sistema de transcoding que adapta páginas web anotadas medianteuna extensión del lenguaje de marcado WAI-ARIA. El sistema hace uso de unaontología para modelar el usuario, el dispositivo, la tecnología de apoyo, el sistema deanotación y las técnicas de adaptación.La potencia de los sistemas de adaptación depende en gran medida de el número detécnicas de adaptación que son capaces de aplicar. Por ello, se realizó una búsquedaintensiva en la literatura de las técnicas de adaptación que pudieran ayudar a laspersonas con necesidades especiales. Además, también se incluyeron otras técnicas deadaptación que surgieron de las necesidades que detectamos en los experimentosllevados a cabo anteriormente.Model Access está compuesto por cuatro módulos principales: el Módulo dePresentación, que se ejecuta en el cliente del usuario, y el Módulo de Adaptaciones, elMódulo Coordinador y la Base de Conocimiento, que se ejecutan en un servidorEn la figura 1 podemos observar, cómo es el proceso de transformación de unapágina web anotada y otra sin anotar pero con el lenguaje WAI-ARIA ya incluido. Elmódulo de presentación se encarga de recoger la página web a la que quiere ir el usuariopara enviársela al módulo del coordinador. Este consulta en la base de conocimientoqué adaptaciones son aplicables al usuario, el dispositivo, la tecnología de apoyo y lapágina web específicos. Esta información es enviada al módulo de adaptaciones queejecuta las adaptaciones pertinentes.Dado que la lógica de las adaptaciones se encuentra en la base de conocimiento, es muysencillo crear nuevas adaptaciones para nuevos usuarios sin que sea necesario realizarFigure 1. Arquitectura general y funcionamientocambios que en la base de conocimiento.AnotaciónUno de los problemas de los sistemas de transcoding es la necesidad de anotar loselementos de la interfaz para producir adaptaciones adecuadas. Al hacer uso de unaextensión de WAI-ARIA, las páginas que ya incluyen este lenguaje de marcado puedenser adaptadas, ya que un gran número de adaptaciones hace uso de los roles ypropiedades presentes en este lenguaje.Las páginas que no incluyen marcas WAI-ARIA se pueden anotar mediante loselementos (clases e ids) de la CSS de la página. Anotando unos poco elementos de laCSS de una página se puede conseguir la anotación de un sitio web entero, ya que elCSS suele ser común para todo el sitio web.EvaluacionesPara comprobar la utilidad de las herramientas desarrolladas y del modelo conceptual,se llevaron a cabo diferentes evaluaciones.En primer lugar se analizó la accesibilidad de la propia herramienta RemoTest y desu proceso de instalación con 36 personas, de las cuales el 36% tenían problemas demovilidad, el 27% eran ciegas, el 22% tenían baja visión, mientras que el resto no teníaninguna discapacidad.Para poder detectar los problemas que pudieran encontar los usuarios al navegar enla web, se llevaron a cabo dos evaluaciones con la herramienta RemoTest: una conpersonas con baja visión y otra con personas con movilidad reducida.De los resultados obtenidos en estas evaluaciones se crearon nuevas técnicas deadaptación. Además, también se realizaron cambios en la base de conocimiento usadapor Model Acess para adecuarse a las necesidades detectadas.Una vez que se actualizó Model Acess, se llevaron a cabo otras dos evaluaciones conpersonas con baja visión y con personas con movilidad reducida. En la primera de ellasse midió la eficacia de las adaptaciones hechas por Model Access para personas conbaja visión usando un PC. Mientras que en la segunda se pudo comprobar la eficacia delas adaptaciones y el funcionamiento de tres métodos de interacción alternativosdedicados a personas con movilidad reducida usando un dispositivo móvil táctil

    Training of Crisis Mappers and Map Production from Multi-sensor Data: Vernazza Case Study (Cinque Terre National Park, Italy)

    Get PDF
    This aim of paper is to presents the development of a multidisciplinary project carried out by the cooperation between Politecnico di Torino and ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action). The goal of the project was the training in geospatial data acquiring and processing for students attending Architecture and Engineering Courses, in order to start up a team of “volunteer mappers”. Indeed, the project is aimed to document the environmental and built heritage subject to disaster; the purpose is to improve the capabilities of the actors involved in the activities connected in geospatial data collection, integration and sharing. The proposed area for testing the training activities is the Cinque Terre National Park, registered in the World Heritage List since 1997. The area was affected by flood on the 25th of October 2011. According to other international experiences, the group is expected to be active after emergencies in order to upgrade maps, using data acquired by typical geomatic methods and techniques such as terrestrial and aerial Lidar, close-range and aerial photogrammetry, topographic and GNSS instruments etc.; or by non conventional systems and instruments such us UAV, mobile mapping etc. The ultimate goal is to implement a WebGIS platform to share all the data collected with local authorities and the Civil Protection
    corecore