6,028 research outputs found

    Usability Assessment of Library Services by the People with Disabilities in Digital Environment: Study of NCR, India

    Get PDF
    The study aims at assessing the usability of library services in the digital environment by the users with disabilities in the libraries of Delhi National Capital Region, India. The survey method is followed for data collection where questionnaire as a data collection tool is used along with personal interviews with the users as well as with the experts and data was analyzed using statistical software ‘Stata version 11’. The results from statistical analysis shows that Internet is the most preferred source among the users with disabilities for the access of required information. Also, there is lack of orientation and training programmes for the users with disabilities in the NCR libraries. The study depicts that ICT has a positive impact in the lives of the people with disabilities. The data analysis reveals that there are inadequate adaptive facilities for the people with disabilities in the NCR libraries to assist them in the access of the required information

    Mixed-methods research: a new approach to evaluating the motivation and satisfaction of university students using advanced visual technologies

    Get PDF
    The final publication is available at link.springer.comA mixed-methods study evaluating the motivation and satisfaction of Architecture degree students using interactive visualization methods is presented in this paper. New technology implementations in the teaching field have been largely extended to all types of levels and educational frameworks. However, these innovations require approval validation and evaluation by the final users, the students. In this paper, the advantages and disadvantages of applying mixed evaluation technology are discussed in a case study of the use of interactive and collaborative tools for the visualization of 3D architectonical models. The main objective was to evaluate Architecture and Building Science students’ the motivation to use and satisfaction with this type of technology and to obtain adequate feedback that allows for the optimization of this type of experiment in future iterations.Postprint (author’s final draft

    Information Seeking Behavior of Visually Impaired Students in Maulana Azad Library, AMU: A Survey

    Get PDF
    Information seeking is a form of human behavior that involves seeking for information by means of the active examination of information sources or information retrieval systems to satisfy the information need or to solve a problem. This study explores the information seeking behavior of visually impaired students in Maulana Azad Library, AMU. The purpose of the study is to examine the information seeking behavior of visually impaired students in Maulana Azad Library, AMU. A well structured schedule (Performa containing assets of questions) was designed and administered among the visually impaired students. The schedules were also supplemented by informal interviews. The study shows that most of the users (77.5%) seeking information for their career development. The highest percentage of the users uses audio books as information source and found them fairly accessible but face difficulties also because of lack of computers with screen reader software. More than half of the users (52.5%) are satisfied with the overall functioning of the library

    Breaking The Exclusionary Boundary Between User Experience And Access: Steps Toward Making UX Inclusive Of Users With Disabilities

    Get PDF
    This research paper points out that we as Designers have failed to come up with a model of UX that would proximate a satisfying user experience for users with disabilities. It underscores the gaps in designer knowledge about disabled bodies. The research paper also draws the attention of the designer community to the limited understanding we presently possess of the disabled people\u27s notions of, and expectations from, satisfying user experiences. It proposes a multi-step process for shifting the focus of design activity from a medical model of accessibility design that retrofits normative designs to the needs of users with disabilities to developing an accessible user experience model (AUX) of design that counts these users as design collaborators, possessors of special knowledge about disabled bodies, and untapped sources of innovative designs that might offer additional design features for all users

    The survey on Near Field Communication

    Get PDF
    PubMed ID: 26057043Near Field Communication (NFC) is an emerging short-range wireless communication technology that offers great and varied promise in services such as payment, ticketing, gaming, crowd sourcing, voting, navigation, and many others. NFC technology enables the integration of services from a wide range of applications into one single smartphone. NFC technology has emerged recently, and consequently not much academic data are available yet, although the number of academic research studies carried out in the past two years has already surpassed the total number of the prior works combined. This paper presents the concept of NFC technology in a holistic approach from different perspectives, including hardware improvement and optimization, communication essentials and standards, applications, secure elements, privacy and security, usability analysis, and ecosystem and business issues. Further research opportunities in terms of the academic and business points of view are also explored and discussed at the end of each section. This comprehensive survey will be a valuable guide for researchers and academicians, as well as for business in the NFC technology and ecosystem.Publisher's Versio

    Accessible software development: a conceptual model proposal

    Get PDF
    Equal access to all software and digital content should be a reality in the Digital Era. This argument is something defended both by existing regulations, norms and standards, and also business organizations and governments. Despite this acknowledgement, the reality is still far from the desired equality. For certain groups of disabled or impaired citizens, such as the visually impaired, the existence of e-accessibility compliance represents an opportunity to integrate, in a more simple and straightforward manner, their societies. Despite the existing poor results on e-accessibility compliance, the mentioned citizens insist on using digital devices in their daily lives. Even though, in the last decade, multiple standards and regulations have been published towards indicating how to develop accessible digital user interfaces, there are still two major issues surrounding its implementation: the complexity and disparity of the documents containing the abovementioned norms, and also the lack of e-accessibility know-how by software experts. With this in mind, a proposal for an accessible software development model that encompasses e-accessibility incorporation as one of the development process activities has been presented. This model might represent a very interesting support tool for software development organizations and a novel resource for learning and training institutions to be able to improve their computer science and informatics students’ skills on e-accessibility.This work was supported by national funds through the Portuguese Foundation for Science and Technology (FCT) under the Project UID/CEC/04524/2016. This work was financed by the ERDF—European Regional Development Fund through the Operational Program for Competitiveness and Internationalization—COMPETE 2020 within Project (POCI-01-0145-FEDER-006961), and by National Funds through the Portuguese funding agency, FCT— Fundação para a Ciência e a Tecnologia as part of Project (UID/EEA/50014/2013).info:eu-repo/semantics/publishedVersio

    Designing wearable interfaces for blind people

    Get PDF
    Tese de mestrado, Engenharia Informática (Arquitectura, Sistemas e Redes de Computadores), Universidade de Lisboa, faculdade de Ciências, 2015Hoje em dia os dispositivos com ecrã táctil, estão cada vez mais onipresentes. Até recentemente, a maioria dos ecrãs sensíveis ao toque forneciam poucos recursos de acessibilidade para deficientes visuais, deixando-os inutilizáveis. Sendo uma tecnologia tão presente no nosso quotidiano, como em telemóveis e tablets. Estes dispositivos são cada vez mais essenciais para a nossa vida, uma vez que, guardam muita informação pessoal, por exemplo, o pagamento através carteiras eletrónicas. A falta de acessibilidade deste tipo de ecrãs devem-se ao facto de estas interfaces serem baseadas no que os utilizadores veem no ecrã e em tocar no conteúdo apresentado neste. Isso torna-se num grande problema quando uma pessoa deficiente visual tenta usar estas interfaces. No mercado existem algumas soluções mas são quase todas baseadas em retorno áudio. Esta solução não é a melhor quando se trata de informação pessoal que a pessoa deseja manter privada. Por exemplo quando um utilizador está num autocarro e recebe uma mensagem, esta é lida por um leitor de ecrã através das colunas do dispositivo. Esta solução é prejudicial para a privacidade do utilizador, pois todas a pessoas `a sua volta irão ouvir o conteúdo da mensagem. Uma solução para este problema, poderá ser a utilização de vibração e de teclas físicas, que retiram a necessidade da utilização de leitores de ecrã. Contudo, para a navegação em menus a problemática mantém-se. Uma maneira de resolver este problema é através da utilização de uma interface baseada em gestos. Este tipo de interface é uma forma flexível e intuitiva de interação com este dispositivos. Até hoje, muitas abordagens têm vindo a apresentar soluções, no entanto não resolvem todos os pontos referidos. De uma maneira ou de outra estas abordagens terão de ser complementadas com outros dispositivos. Guerreiro e colegas (2012), apresentaram um protótipo que possibilita a leitura texto através de vibração, mas todo o impacto de uma utilização no dia a dia não é tido em conta. Um outro estudo realizado por Myung-Chul Cho (2002) apresenta um par de luvas para escrita codificada pelo alfabeto Braile, contudo não é testado para uma utilização com integração de uma componente de leitura, sem ser o retorno áudio. Dois outros estudos destacam-se, relativamente à utilização de gestos para navegação no dispositivo. Ruiz (2011), efetuou uma elicitação de gestos no ar, no entanto, eles não incluem pessoas invisuais no estudo, o que poderá levar à exclusão de tais utilizadores. Outro estudo apresentado por Kane (2011), inclui pessoas invisuais e destina-se a interações com gestos mas exigindo contacto físico com os ecrãs tácteis. A abordagem apresentada neste estudo integra as melhores soluções apresentadas num único dispositivo. O nosso objectivo principal é tornar os dispositivos de telemóveis mais acessíveis a pessoas invisuais, de forma serem integrados no seu quotidiano. Para isso, desenvolvemos uma interface baseada num par de luvas. O utilizador pode usá-las e com elas ler e escrever mensagens e ainda fazer gestos para outras tarefas. Este par de luvas aproveita o conhecimento sobre Braille por parte dos utilizadores para ler e escrever informação textual. Para a característica de leitura instalámos seis motores de vibração nos dedos da luva, no dedo indicador, no dedo do meio e no dedo anelar, de ambas as mãos. Estes motores simulam a configuração das teclas de uma máquina de escrever Braille, por exemplo, a Perkins Brailler. Para a parte de escrita, instalámos botões de pressão na ponta destes mesmos dedos, sendo cada um representante de um ponto de uma célula de Braille. Para a detecção de gestos optámos por uma abordagem através de um acelerómetro. Este encontra-se colocado nas costas da mão da luva. Para uma melhor utilização a luva é composta por duas camadas, e desta forma é possível instalar todos os componente entre as duas camadas de tecido, permitindo ao utilizador calçar e descalçar as luvas sem se ter que preocupar com os componentes eletrónicos. A construção das luvas assim como todos os testes realizados tiveram a participação de um grupo de pessoas invisuais, alunos e professores, da Fundação Raquel e Martin Sain. Para avaliarmos o desempenho do nosso dispositivo por invisuais realizámos alguns teste de recepcão (leitura) e de envio de mensagens (escrita). No teste de leitura foi realizado com um grupo apenas de pessoas invisuais. O teste consistiu em, receber letras em Braille, onde o utilizador replicava as vibrações sentidas, com os botões das luvas. Para isso avaliámos as taxas de reconhecimento de caracteres. Obtivemos uma média de 31 %, embora estes resultados sejam altamente dependentes das habilidades dos utilizadores. No teste de escrita, foi pedido uma letra ao utilizador e este escrevia em braille utilizando as luvas. O desempenho nesta componente foi em média 74 % de taxa de precisão. A maioria dos erros durante este teste estão ligados a erros, onde a diferença entre a palavra inicial e a escrita pelo utilizador, é de apenas um dedo. Estes testes foram bastante reveladores, relativamente à possível utilização destas luvas por pessoas invisuais. Indicaram-nos que os utilizadores devem ser treinados previamente para serem maximizados os resultados, e que pode ser necessário um pouco de experiencia com o dispositivo. O reconhecimento de gestos permite ao utilizador executar várias tarefas com um smartphone, tais como, atender/rejeitar uma chamada e navegar em menus. Para avaliar que gestos os utilizadores invisuais e normovisuais sugerem para a execução de tarefas em smartphones, realizámos um estudo de elicitação. Este estudo consiste em pedir aos utilizadores que sugiram gestos para a realização de tarefas. Descobrimos que a maioria dos gestos inventados pelos participantes tendem a ser físicos, em contexto, discreto e simples, e que utilizam apenas um ´unico eixo espacial. Concluímos também que existe um consenso, entre utilizadores, para todas as tarefas propostas. Além disso, o estudo de elicitação revelou que as pessoas invisuais preferem gestos mais simples, opondo-se a uma preferência por gestos mais complexos por parte de pessoas normovisuais. Sendo este um dispositivo que necessita de treino para reconhecimento de gestos, procurámos saber qual o tipo de treino é mais indicado para a sua utilização. Com os resultados obtidos no estudo de elicitação, comparámos treinos dos utilizadores individuais, treinos entre as das populações (invisuais e normovisuais) e um treino com ambas as populações (global). Descobrimos que um treino personalizado, ou seja, feito pelo próprio utilizador, é muito mais eficaz que um treino da população e um treino global. O facto de o utilizador poder enviar e receber mensagens, sem estar dependente de vários dispositivos e/ou aplicações contorna, as tão levantadas, questões de privacidade. Com o mesmo dispositivo o utilizador pode, ainda, navegar nos menus do seu smartphone, através de gestos simples e intuitivos. Os nossos resultados sugerem que será possível a utilização de um dispositivo wearable, no seio da comunidade invisual. Com o crescimento exponencial do mercado wearable e o esforço que a comunidade académica está a colocar nas tecnologias de acessibilidade, ainda existe uma grande margem para melhorar. Com este projeto, espera-se que os dispositivos portáteis de apoio irão desempenhar um papel importante na integração social das pessoas com deficiência, criando com isto uma sociedade mais igualitária e justa.Nowadays touch screens are ubiquitous, present in almost all modern devices. Most touch screens provide few accessibility features for blind people, leaving them partly unusable. There are some solutions, based on audio feedback, that help blind people to use touch screens in their daily tasks. The problem with those solutions raises privacy issues, since the content on screen is transmitted through the device speakers. Also, these screen readers make the interaction slow, and they are not easy to use. The main goal of this project is to develop a new wearable interface that allows blind people to interact with smartphones. We developed a pair of gloves that is capable to recognise mid-air gestures, and also allows the input and output of text. To evaluate the usability of input and output, we conducted a user study to assess character recognition and writing performance. Character recognition rates were highly user-dependent, and writing performance showed some problems, mostly related to one-finger issues. Then, we conducted an elicitation study to assess what type of gestures blind and sighted people suggest. Sighted people suggested more complex gestures, compared with blind people. However, all the gestures tend to be physical, in-context, discrete and simple, and use only a single axis. We also found that a training based on the user’s gestures is better for recognition accuracy. Nevertheless, the input and output text components still require new approaches to improve users performance. Still, this wearable interface seems promising for simple actions that do not require cognitive load. Overall, our results suggest that we are on track to make possible blind people interact with mobile devices in daily life
    corecore