23 research outputs found

    Making Medical Visual Information Available on the WEB

    Get PDF
    This paper presents a new metadata model to describe and retrieve medical visual information, such images and their diagnoses, using the Web. The classes of this model allow describing medical images of different medical areas, including their properties, components and relationships. This model supports the international classification of diseases and related health problems (i.e. ICD-10) [1]. The MedISeek (Medical Image Seek) prototype presented here proposes a medical image sharing system based on web services, that allows authorized users to describe, store and retrieve medical images and their associated diagnostic information,based on the proposed metadata model. Thus, this paper proposes to include the image description, converted to RDF syntax, into a JPEG image and a persistent structure for relational databases to storage and retrieve this metadata, providing fast indexing and querying. A description of the prototype structure also is provided

    BUSCA, RECUPERAÇÃO E VISUALIZAÇÃO DE RECURSOS ACADÊMICOS DISTRIBUÍDOS

    Get PDF
    Universities are reference when the subject is research and innovation. So much research creates a lot of related material (papers and videos for example), mostly this material is not shared with the community (of any nature: academic, scientific or public) because there is not a means with easy access and use. Don’t just researches create academic resources, the environment of a university by itself offer a wide range of activities that create academic resources: classes, scientific initiations, symposia, congress and others. The biggest problem of this scenario is that such a wealth of subjects doesn’t have any value when they are saved. As every university has a good IT infrastructure, the hosting and providing of such resources on Internet is trivial, the problem is that should know where the resources are to get them. This work pretends to take place in this context, allow the search of such resources in a transparent way to the final use

    DETECÇÃO DE INTRUSÃO COM RECONHECIMENTO FACIAL EM IMAGENS GERADAS POR CÂMERAS DE SEGURANÇA

    Get PDF
    Os sistemas de segurança com câmeras de monitoramento comerciais surgiram na década de 70 e de lá para cá seu uso vem se tornando cada vez mais comum. Eles evoluíram desde sua concepção, com funções como gravações das imagens, câmeras móveis e rotativas, sensores de movimento, e nos últimos anos, auxílio de computadores. O presente artigo faz a proposta de um framework que fornece funcionalidades de alto nível, utilizando recursos disponíveis de câmeras de vigilância do tipo IP e técnicas em visão computacional, dentre elas a delimitação de regiões críticas, detecção e reconhecimento de faces e geração de logs de intrusão

    RECONHECIMENTO FACIAL EM IMAGENS CAPTURADAS POR CÂMERAS DIGITAIS DE REDE

    Get PDF
    Este trabalho apresenta um estudo e um protótipo para o reconhecimento facial humano utilizando imagens capturadas por câmeras de segurança IP. A metodologia do trabalho faz uso dos recursos fornecidos pela biblioteca OpenCV em conjunto com a biblioteca JavaCV para a detecção e reconhecimento facial, onde foram explorados os algoritmos de HaarCascade, Eigenface, Fisherface e LBPH. Para o desenvolvimento do trabalho foi implementado um protótipo com o objetivo de identificar indivíduos em meio a um grupo de pessoas. Os testes foram realizados com alunos da Faculdade de Informática de Presidente Prudente/Unoeste e os resultados da precisão de reconhecimento foram relatados e apresentados nesse estudo

    UM MODELO PARA EXTRAÇÃO, ESTRUTURAÇÃO, INDEXAÇÃO E RECUPERAÇÃO DE CASOS CLÍNICOS PUBLICADOS NA WEB

    Get PDF
    Currently the range of medical content available on the Web is very wide, mainly clinical cases that serve as the basis for studies and analyzes, however many of these data are without structures and originate from heterogeneous sources, making it difficult to search indexing and data analysis. Thus, this work proposes a metadata model to standardize such contents and serves as a basis for the use of conventional text mining techniques and PLN for their settlement, for future searches, recoveries and maintenance with higher quality.Atualmente a gama de conteúdos médicos disponíveis na Web é muito vasta, principalmente a de casos clínicos que servem de base para estudos e análises, entretanto muitos desses dados se encontram sem estruturas e originam de fontes heterogêneas, tornando difícil a busca indexação e análise dos dados. Assim esse presente trabalho propõem um modelo de metadados visando padronizar tais conteúdos e servindo como base para utilização de técnicas de mineração de texto convencionais e por PLN para seu povoamento, para futuras buscas, recuperações e manutenções com maior qualidad

    DESENVOLVIMENTO DE UM FRAMEWORK PARA O MONITORAMENTO DE DISPOSITIVOS MÓVEIS NA PLATAFORMA ANDROID

    Get PDF
    MonitoremSempre é um Framework que foi desenvolvido utilizando a plataforma Android com o objetivo de oferecer recursos para amenizar os efeitos de eventuais roubos e violações ocorridos em dispositivos móveis. O Framework pode ser utilizado para criar aplicações de monitoramento por coordenadas geográficas. Oferece ainda uma interface web para realizar o gerenciamento dos dispositivos monitorados

    RECONHECIMENTO DE VOZ NO AUXÍLIO À EDIÇÃO DE CÓDIGO FONTE EM JAVA

    Get PDF
    Com a proposta no desenvolvimento de um aplicativo para a edição de código fonte, este trabalho descreve a metodologia de implementação de uma interface de software dotada de reconhecimento de voz para edição de código fonte na linguagem de programação Java. O aplicativo por meio do reconhecimento sintático de sentenças na linguagem de programação e técnicas que dão assistência à edição de código fonte propicia a escrita de código fonte de forma rápida e segura para pessoas com deficiência motora

    DESCRIÇÃO E RECUPERAÇÃO DE NOTÍCIAS JORNALÍSTICAS POR MEIO DE METADADOS

    Get PDF
    Atualmente existem diversos padrões de metadados para descrição de informações de temas e áreas variadas. Muitos desses padrões estão presentes em sistemas web que visam possibilitar formas de recuperação com maior precisão que os populares mecanismos de busca. O presente trabalho propõe um modelo de metadados para realizar a descrição de notícias e matérias jornalísticas para diversos veículos de informação. Os recursos serão descritos e recuperados por meio de ferramentas computacionais desenvolvidas especificamente para este trabalho

    GANHO DE DESEMPENHO DO FEMA UTILIZANDO PROGRAMAÇÃO PARALELA E ÁRVORES DE PARTICIONAMENTO ESPACIAL

    Get PDF
    This paper presents an application with data structures and GPU to get better performances in FEMa algorithm. At first, a binary partition Kd-Tree is constructed from a dataset, after his building, the search algorithm of the K nearest neighbours (K-NN) is applied in the Kd-Tree to all sample in the test dataset. After get the result of nearest samples search, the step of classification begin applying the Finite Element Method basis to get the result. Another approach is to utilize cuda codes in algorithm, so that it can be parallelized and run in GPU to obtain a gain of performance in the code runtime.O presente estudo apresenta a  utilização de estruturas de dados e GPU como uma melhoria de desempenho do algoritmo de classificação FEMa. Primeiramente, à partir de um datasets  é criada uma árvore de partição binária do tipo Kd-Tree e após sua construção, aplicado o algoritmo de busca dos K vizinhos mais próximos (K-NN) na Kd-Tree para cada amostra de teste apresentada na fase de classificação. Após ter o resultado da busca das amostras mais próximas, é feita a etapa de classificação do FEMa aplicando uma base dos Métodos dos Elementos Finitos (FEM), para trazer o resultado. Outra abordagem é utilizar códigos CUDA no algoritmo do FEMa, para que o mesmo seja paralelizado e executado em GPU’s, para obter um ganho de desempenho no tempo de execução

    REDES NEURAIS APLICADAS NA INVESTIGAÇÃO DE AVC POR TOMOGRAFIA COMPUTADORIZADA

    Get PDF
    This work introduce an algorithm proposal able to automatically identify the occurrence of stroke through computed tomography (CT) images. The methods of segmentation by similarity and mathematical morphology are defined, in addition to the enhancement filters used to modify the histogram of the image, which comprises the input data of a Multi-layer Perceptron neural network responsible for classification. The use of this algorithm for medical diagnosis assistance seeks to speed up the process of detection of the disease, accurately and satisfactorily, once the final response given by the responsible specialist depends on his subjectivity. The work comes up with the development of the algorithm and the analysis of its results, which reaches an accuracy of 98,51% during the classification training using the anisotropic diffusion filter and 91,33% for segmentation using thresholding methods. A comparison between other image processing and artificial intelligence techniques is performed, seeking to obtain the bets response within a new and low cost model.Este trabalho apresenta uma proposta de algoritmo capaz de identificar automaticamente a ocorrência do acidente vascular encefálico (AVC) usando imagens por tomografia computadorizada (TC). São definidos os métodos de segmentação por similaridade e morfologia matemática, além dos filtros de realce utilizados para modificar o histograma da imagem, que compreende os dados de entrada de uma rede neural Perceptron multicamadas, responsável pela classificação. A utilização deste algoritmo para o auxílio ao diagnóstico médico busca agilizar o processo de detecção da doença, de forma precisa e satisfatória, uma vez que a resposta final dada pelo especialista responsável depende de sua subjetividade. O trabalho mostra o desenvolvimento do algoritmo e a análise de seus resultados, que alcança uma acurácia de 98,51% durante o treinamento de classificação utilizando o filtro de difusão anisotrópica e 91,33% para segmentação utilizando métodos de limiarização. Uma comparação entre outras técnicas de processamento de imagem e inteligência artificial é realizada, procurando obter a melhor resposta dentro de um modelo novo e de baixo custo
    corecore