9 research outputs found

    Utilização de notas escolares para predição da nota ENEM em ciências humanas

    Get PDF
    O presente trabalho explora a hipótese de predição da nota ENEM em ciências humanas a partir de dados pedagógicos oriundos de notas de avaliações escolares de estudantes de ensino médio de um colégio particular em São Paulo. A partir da análise, foi possível a predição da nota ENEM de ciências humanas no decurso do 3º ano do ensino médio com uma correlação (r de Pearson) de 60,2% e RMSE de 39,7 pontos na escala ENEM. O modelo apontou, ainda, conteúdos relevantes fortemente correlacionados com o desempenho ENEM já desde o 1º ano do ensino médio

    Dimensões subjetivas na Saúde Digital

    Get PDF
    As heterogêneas e contraditórias estruturas do capitalismo global vêm moldando de diferentes formas os significados sociais acerca da Saúde Digital e, com isso, também seu desenvolvimento e regulação. Para uma melhor compreensão destas questões, nesta revisão de literatura destacamos que tais estruturas contêm certas dimensões subjetivas que precisam ser investigadas de forma mais detida. Para isso, analisamos como a Saúde Digital se torna um espaço tanto de expansão das potencialidades humanas quanto para o acirramento dessas contradições estruturais. Discutimos como os modos de governamentalidade capitalista seriam atualizados junto a esses movimentos, moldando subjetivamente patologias, pacientes e o cuidado em saúde. Analisamos como esses processos podem se desdobrar em técnicas comportamentais que podem ser embarcadas em dispositivos e aplicativos de saúde e bem-estar, bem como suas consequências e riscos potenciais, o que exige atenção regulatória com participação socia

    Infrastructure model for publishing quality linked open government data

    No full text
    Contexto: A produção de dados abertos governamentais (DAG) tem aumentado desde a última década, sendo considerada como um dos pilares da democracia moderna. A disponibilidade desses dados carrega promessas como: o desenvolvimento econômico, por meio de produtos e serviços baseados nesses dados; o controle social, ao transparecer para a sociedade as ações e resultados dos governos; o embasamento de políticas públicas, ao gerar indicadores de efetividade ao longo do tempo, servindo para pesquisas ou acompanhamentos do próprio governo; o combate à corrupção, por meio da prestação de contas na execução orçamentária de políticas públicas. Diferentes órgãos governamentais divulgam informações dentro de seu escopo, tornando possível que consumidores de dados combinem diferentes fontes para responder questões que antes não eram possíveis. Problema: Embora tenha havido progressos variados em torno desses eixos, vários fatores impedem que esses benefícios sejam realizados em maior escala. Da perspectiva tecnológica, a disponibilização dos dados para que possam ser combinados, a formatação padronizada e sua interoperabilidade são talvez os fatores que mais impactam sobre sua produção. As tecnologias semânticas têm sido desenvolvidas para tratar este problema de interoperabilidade ao representar informações de modo que possam ser interpretadas inequivocamente por humanos e máquinas, por meio dos chamados dados conectados. O encontro dessas áreas traz a possibilidade de fazer com que as informações governamentais sejam mais facilmente processadas, inclusive sendo inferidas informações implícitas. As metodologias existentes apresentam limitações como a percepção de serem muito genéricas e de não tratarem corretamente questões de qualidade dos dados, fazendo com que publicadores adotem métodos ad-hoc de publicação. Objetivo: Assim, o objetivo desta tese é desenvolver uma infraestrutura de publicação de dados abertos governamentais conectados (DAGC) de qualidade para o ecossistema de dados da Web, que utilize os padrões da Web para garantir a interoperabilidade em diferentes aspectos. Métodos: Foi conduzido um mapeamento sistemático para identificar as metodologias existentes, o que trazem de comum e quais suas limitações em torno dos problemas encontrados em sua prática. A partir desses pontos, foi adotada a metodologia Design Science Research Methodology (DSR-M), sob a epistemologia da Design Science, de caráter pragmático, que objetiva o desenvolvimento de artefatos para resolver problemas. Ela guiou a seleção de teorias kernel para atender aos requisitos levantados e descreve a busca de uma solução viável de design para os artefatos da infraestrutura. Foram conduzidos estudos empíricos (cenário ilustrativo e quasi-experimento), utilizando fontes de dados reais, para avaliar a eficácia e a facilidade de uso destes artefatos, por meio do atendimento aos requisitos e mediante um arcabouço de qualidade de dados conectados. Resultados: A infraestrutura proposta é composta por três artefatos: i) um modelo de ciclo de vida de publicação de DAGC, descrevendo quais são as atividades, papéis, ferramentas, verificações e saídas de cada fase de produção; ii) uma arquitetura conceitual, que atende às práticas de compartilhamento de dados, possibilita o acesso aos dados por parte de humanos e máquinas, e considera pontos de controle de verificação dos dados sendo gerados ao longo do processo; iii) modelo de metadados que compila práticas para descrever dados e metadados conectados, objetivando facilitar sua descoberta e processamento. O produto resultante, gerado pelos participantes do estudo empírico, demonstrou nível de qualidade semelhante ou superior aos datasets estado da arte - dentro das métricas de qualidade de dados conectados selecionadas para a avaliação. Conclusão: Esta tese trouxe importantes contribuições teóricas e práticas para a área de publicação de dados abertos governamentais conectados. Ela demonstra como concretizar o atendimento aos requisitos de governo e de abertura de dados por meio de uma infraestrutura com diferentes componentes que permitem que humanos e máquinas possam buscar, acessar e processar dados de qualidade, detalhando diferentes possibilidades de instanciar a infraestrutura.Context: The production os open government data (OGD) has increased since the last decade, being considered as one of the fundamental pillars of modern democracy. The availability of these data carries the promises of economic development, through products and services based on these data; social control, by making it transparent to the society the actions and outcomes from the government; the basis for public policies, by generating indicators of effectiveness throughout time, serving for researches or as a follow-up for the government itself; corruption deterrence, by the accountability of budget execution of public policies. Different public bodies release information of their own scope, making it possible that data consumers combine different data sources to answer questions that were not previously possible. Problem: Although there was some progress in different levels around these axes, multiple factors hamper these benefits from being realized on a larger scale. From the technological perspective, the availability of data for combination, the standardized preparation, and their interoperability are arguably the most impacting factors for their production. Semantic technologies have been developed to address this problem of interoperability by representing information so that they can be interpreted unequivocally by humans and machines alike, the so-called linked data. The overlap of these areas carries the possibility of making government information easier to process, including inferring implicit information. Current methodologies present limitations such as their perception of being too generic and not addressing quality systematically, making data publishers prefer to adopt ad-hoc publication practices. Objective: Thus, this thesis aims to develop a high quality linked open government data (LOGD) publication infrastructure for the Web ecosystem, that uses Web standards to ensure interoperability in many aspects. Methods: A systematic mapping was carried out to identify existing methodologies, their commonalities and their limitations regarding the problems found in their practice. With this knowledge, the Design Science Research Methodology (DSR-M) was adopted, under the design science epistemiology, having a pragmatic character and which aims the development of artifacts to solve practical problems. It guided the selection of kernel theories to meet the requirements and to describe the search for a feasible design solution for the infrastructure artifacts. Empirical studies were carried out (both illustrative scenario and quasi-experiment) using real data sources, to evaluate the efficacy and ease of use of these artifacts, by meeting elicited requirements and by assessing through a quality assessment framework. Results: The proposed infrastructure is made by three artifacts: i) a publishing lifecycle model for LOGD, describing the activities, roles, tools verifications and outputs to each of the production phases; ii) a conceptual architecture, meeting data sharing practices and enabling data access for both humans and machines, considering verification checkpoints along the process; iii) a metadata model, compiling practices to describe linked open government data, aiming to make discovery and processing easier. The resulting product, created by the participants in the empirical study, showed a similar or superior level of quality to state-of-the-art datasets - concerning the linked data quality metrics selected for the evaluation. Conclusion: This thesis has made both theoretical and practical contributions to the field of linked open government data. In short, it materializes meeting the requirements of open government and data employing an infrastructure with multiple components that enables both humans and machines to search, access and process quality data, detailing different alternatives to instantiate the infrastructure

    Autenticação biométrica de usuários em sistemas de E-learning baseada em reconhecimento de faces a partir de vídeo

    No full text
    Nos últimos anos tem sido observado um crescimento exponencial na oferta de cursos a distância realizados pela Internet, decorrente de suas vantagens e características (menores custos de distribuição e atualização de conteúdo, gerenciamento de grandes turmas, aprendizado assíncrono e geograficamente independente, etc.), bem como de sua regulamentação e apoio governamental. Entretanto, a falta de mecanismos eficazes para assegurar a autenticação dos alunos neste tipo de ambiente é apontada como uma séria deficiência, tanto no acesso ao sistema quanto durante a participação do usuário nas atividades do curso. Atualmente, a autenticação baseada em senhas continua predominante. Porém, estudos têm sido conduzidos sobre possíveis aplicações da Biometria para autenticação em ambientes Web. Com a popularização e conseqüente barateamento de hardware habilitado para coleta biométrica (como webcams, microfone e leitores de impressão digital embutidos), a Biometria passa a ser considerada uma forma segura e viável de autenticação remota de indivíduos em aplicações Web. Baseado nisso, este trabalho propõe uma arquitetura distribuída para um ambiente de e-Learning, explorando as propriedades de um sistema Web para a autenticação biométrica tanto no acesso ao sistema quanto de forma contínua, durante a realização do curso. Para análise desta arquitetura, é avaliada a performance de técnicas de reconhecimento de faces a partir de vídeo capturadas on-line por uma webcam em um ambiente de Internet, simulando a interação natural de um indivíduo em um sistema de e- Learning. Para este fim, foi criada uma base de dados de vídeos própria, contando com 43 indivíduos navegando e interagindo com páginas Web. Os resultados obtidos mostram que os métodos analisados, consolidados na literatura, podem ser aplicados com sucesso nesse tipo de aplicação...In the last years it has been observed an exponential growth in the offering of Internet-enabled distance courses, due to its advantages and features (decreased distribution and content updates costs, management of large groups of students, asynchronous and geographically independent learning) as well as its regulation and governmental support. However, the lack of effective mechanisms that assure user authentication in this sort of environment has been pointed out as a serious deficiency, both in the system logon and during user attendance in the course assignments. Currently, password based authentication still prevails. Nevertheless, studies have been carried out about possible biometric applications for Web authentication. With the popularization and resultant decreasing costs of biometric enabled devices, such as webcams, microphones and embedded fingerprint sensors, Biometrics is reconsidered as a secure and viable form of remote authentication of individuals for Web applications. Based on that, this work presents a distributed architecture for an e-Learning environment, by exploring the properties of a Web system for biometric authentication both in the system logon and in continuous monitoring, during the course attendance. For the analysis of this architecture, the performance of techniques for face recognition from video, captured on-line by a webcam in an Internet environment, is evaluated, simulating the natural interaction of an individual in an e-Learning system. For that, a private database was created, with 43 individuals browsing and interacting with Web pages. The results show that the methods analyzed, though consolidated in the literature, can be successfully applied in this kind of application, with recognition rates up to 97% in ideal conditions, with low execution times and with short amount of information transmitted between client and server, with templates sizes of about 30KB

    A video-based biometric authentication for e-learning web applications

    No full text
    In the last years there was an exponential growth in the offering of Web-enabled distance courses and in the number of enrolments in corporate and higher education using this modality. However, the lack of efficient mechanisms that assures user authentication in this sort of environment, in the system login as well as throughout his session, has been pointed out as a serious deficiency. Some studies have been led about possible biometric applications for web authentication. However, password based authentication still prevails. With the popularization of biometric enabled devices and resultant fall of prices for the collection of biometric traits, biometrics is reconsidered as a secure remote authentication form for web applications. In this work, the face recognition accuracy, captured on-line by a webcam in Internet environment, is investigated, simulating the natural interaction of a person in the context of a distance course environment. Partial results show that this technique can be successfully applied to confirm the presence of users throughout the course attendance in an educational distance course. An efficient client/server architecture is also proposed. © 2009 Springer Berlin Heidelberg

    Evaluating Temporal Predictive Features for Virtual Patients Feedbacks

    Get PDF
    International audienceA key challenge when studying human-agent interaction is the evaluation of user's experience. In virtual reality, this question is addressed by studying the sense of "presence" and"co-presence", generally assessed thanks to well-grounded subjective post-experience questionnaires. In this article, we aim at exploring behavioral measures of presence and co-presence by analyzing multimodal cues produced during an interaction both by the user and the virtual agent. In our study, we started from a corpus of human-agent interaction collected in a task-oriented context: a virtual environment aiming at training doctors to break bad news to a patient (played by a virtual agent). Based on this corpus, we have used machine learning algorithms to explore the possibility of predicting user's sense of presence and co-presence. In particular, we have applied and compared two techniques, Random forest and SVM, both showing very good results in predicting the level of presence and co-presence

    Utilização de notas escolares para predição da nota ENEM em ciências humanas

    Get PDF
    O presente trabalho explora a hipótese de predição da nota ENEM em ciências humanas a partir de dados pedagógicos oriundos de notas de avaliações escolares de estudantes de ensino médio de um colégio particular em São Paulo. A partir da análise, foi possível a predição da nota ENEM de ciências humanas no decurso do 3º ano do ensino médio com uma correlação (r de Pearson) de 60,2% e RMSE de 39,7 pontos na escala ENEM. O modelo apontou, ainda, conteúdos relevantes fortemente correlacionados com o desempenho ENEM já desde o 1º ano do ensino médio

    From Medical Informatics to Digital Health: A Bibliometric Analysis of the Research Field

    No full text
    Healthcare services and systems may face an enormous impact of digital transformation in the near future. Based on recent changes derived from the digitalization of economic sectors, one may point to new health processes and business models. Considering digital transformation may pose new challenges for healthcare, this work sought to understand historical changes in the medical informatics research field based on a bibliometric study to predict the characteristics of these recent trends. We analyzed papers since the 1960s, codifying keywords in three different axes, namely: general labels, applications, and technologies, to understand how the research field of medical informatics has evolved and corresponding technological changes that took place. The study identified four distinct and coherent waves, each having its key aspects and predominant nomenclatures. We also found evidence suggesting that the changes started in the last few years point to an emerging digital health wave

    Artificial Intelligence applications in diagnostic medicine: a decade of expectations

    No full text
    Considered a new paradigm in healthcare, AI is expected to change diagnostic medicine in the coming decades. However, its future is still uncertain - partly because it is an emerging technology being gradually applied to a mature field of medicine. We conducted a global cross-sectional survey with more than 1,400 authors of recent scientific publications indexed by the Web of Science to foresee the future of AI in diagnostic medicine. Most respondents expect AI to change diagnostic medicine in this decade radically. In this period, the two most likely outcomes are reduced screening costs and increased diagnostic reliability. X-ray diagnosis and heart rhythm interpretation are the two diagnostic tools most likely to be integrated with AI. The two main barriers are the difficulty of incorporating it into clinical practice and the ethical-regulatory issues. Respondents’ expectations align with the literature and suggest that AI may substantially change diagnostic medicine within this decade
    corecore