437 research outputs found

    Recuperação e classificação de informações provenientes da web e de redes sociais

    Get PDF
    Resumo: Esta dissertação apresenta um estudo, exploratório e metodológico, sobre o problema de recuperação e classificação de informações na Internet: (i) avalia a possibilidade de usar a infraestrutura de conexão entre os documentos na web acrescida do processo de interação social online, para a criação de gráficos sociais virtuais e para a análise da opinião expressa; (ii) utiliza os gráficos sociais virtuais e a análise de opinião como fatores de classificação da informação recolhida; (iii) desenvolve uma pesquisa bibliográfica na ciência da análise de redes sociais, destacando a história desta ciência e suas métricas, expande este estudo para as redes sociais virtuais observando seu funcionamento e sua história; (iv) estuda as características estruturais da web, seus documentos e os protocolos nela utilizados. (v) avalia métodos utilizados na mineração de opinião com um levantamento dos algoritmos utilizados para avaliação de opinião em fragmentos de texto; (vi) apresenta um sistema de recuperação e classificação de informação da Internet considerando domínio específico que utiliza algoritmos e técnicas recentes para definir uma arquitetura de busca, recuperação e classificação de informação baseado em um léxico característico fornecido pelo usuário, na criação e avaliação de gráficos sociais virtuais e na análise de opinião. Os resultados encontrados indicam que o uso de gráficos sociais virtuais e mineração de opinião como fatores de classificação podem ser utilizados como complementos ao Pagerank minimizando o ruído nos resultados de buscas.Resum

    Melhoria do processo legislativo no âmbito parlamentar pela introdução de tecnologias digitais do domínio legal

    Get PDF
    Atualmente, as organizações abordam a melhoria dos seus processos com foco predominante na digitalização e automatização desses processos. Na perspetiva de organizações como os Parlamentos, a automação de processos tem sido abordada, porém, pouco tem sido explorado no âmbito legislativo. Por outro lado, no campo jurídico, a utilização de soluções informáticas para serviços jurídicos tem também emergido. É neste contexto que nesta investigação apresentamos uma nova abordagem para melhorar o processo de elaboração de leis no âmbito parlamentar a partir da definição de uma linguagem específica de domínio. Esta abordagem enfatiza a definição dessa linguagem que representa os conceitos essenciais das leis e suas relações. A investigação realizou uma revisão sistemática da literatura de publicações sobre ontologias legais, como suporte aos processos e atividades de natureza legal, e realizou uma análise comparativa de diferentes ontologias legais. Essa revisão da literatura permitiu identificar problemas concretos nas atividades de produção de leis, sujeitas a vários tipos de erros, e permitiu a definição de um modelo de referência para representar leis de forma mais rigorosa e explícita, proporcionando uma maior sistematização e qualidade dos processos da produção de leis. A análise das ontologias legais permitiu-nos definir essa linguagem especifica de domínio como ferramenta de apoio a esses processos, em particular, processos que vão desde a submissão de iniciativas de leis até sua posterior autoria e homologação. Com recurso às tecnologias Eclipse e Xtext, os autores criaram a ferramenta LegalStudio que representa a linguagem LegalLanguage, com realce de sintaxe, verificação de erros e um editor integrado, no qual as atividades de escrita normativa podem ser aprimoradas e menos propensas a erros em comparação com os processos tradicionais. Foi realizada uma avaliação do protótipo da LegalStudio para apoiar à edição e validação de textos normativos, destacando seus principais atores, funcionalidades e aspetos de apreciação geral da ferramenta.Currently, organizations approach the improvement of their processes with a predominant focus on digitizing and automating these processes. From the perspective of organizations such as Parliaments, the automation of processes has been addressed, however, little has been explored in the legislative scope. On the other hand, in the legal field, the use of IT solutions for legal services has also emerged. It is in this context that in this investigation we present a new approach to improve the process of drafting laws in the parliamentary sphere, starting from the definition of a domain-specific language. This approach emphasizes the definition of that language that represents the essential concepts of the laws and their relationships. The investigation carried out a systematic literature review of publications on legal ontologies, as support to legal processes and activities, and carried out a comparative analysis of different legal ontologies. This literature review made it possible to identify concrete problems in the activities of law production, subject to various types of errors, and allowed the definition of a reference model to represent laws in a more rigorous and explicit way, providing a greater systematization and quality of the processes of the production of laws. The analysis of legal ontologies allowed us to define this domain-specific language as a tool to support these processes, in particular, processes that range from the submission of law initiatives to their subsequent authorship and approval. Using Eclipse and Xtext technologies, the authors created the LegalStudio tool that represents the LegalLanguage language, with syntax highlighting, error checking, and an integrated editor, in which normative writing activities can be improved and less prone to errors compared to traditional processes. An evaluation of the LegalStudio prototype to support the editing and validation of normative texts was carried out, highlighting its main actors, functionalities, and aspects of general appreciation of the tool

    Agrupamento de faces em vídeos digitais.

    Get PDF
    Faces humanas são algumas das entidades mais importantes frequentemente encontradas em vídeos. Devido ao substancial volume de produção e consumo de vídeos digitais na atualidade (tanto vídeos pessoais quanto provenientes das indústrias de comunicação e entretenimento), a extração automática de informações relevantes de tais vídeos se tornou um tema ativo de pesquisa. Parte dos esforços realizados nesta área tem se concentrado no uso do reconhecimento e agrupamento facial para auxiliar o processo de anotação automática de faces em vídeos. No entanto, algoritmos de agrupamento de faces atuais ainda não são robustos às variações de aparência de uma mesma face em situações de aquisição típicas. Neste contexto, o problema abordado nesta tese é o agrupamento de faces em vídeos digitais, com a proposição de nova abordagem com desempenho superior (em termos de qualidade do agrupamento e custo computacional) em relação ao estado-da-arte, utilizando bases de vídeos de referência da literatura. Com fundamentação em uma revisão bibliográfica sistemática e em avaliações experimentais, chegou-se à proposição da abordagem, a qual é constituída por módulos de pré-processamento, detecção de faces, rastreamento, extração de características, agrupamento, análise de similaridade temporal e reagrupamento espacial. A abordagem de agrupamento de faces proposta alcançou os objetivos planejados obtendo resultados superiores (no tocante a diferentes métricas) a métodos avaliados utilizando as bases de vídeos YouTube Celebrities (KIM et al., 2008) e SAIVT-Bnews (GHAEMMAGHAMI, DEAN e SRIDHARAN, 2013).Human faces are some of the most important entities frequently encountered in videos. As a result of the currently high volumes of digital videos production and consumption both personal and profissional videos, automatic extraction of relevant information from those videos has become an active research topic. Many efforts in this area have focused on the use of face clustering and recognition in order to aid with the process of annotating faces in videos. However, current face clustering algorithms are not robust to variations of appearance that a same face may suffer due to typical changes in acquisition scenarios. Hence, this thesis proposes a novel approach to the problem of face clustering in digital videos which achieves superior performance (in terms of clustering quality and computational cost) in comparison to the state-of-the-art, using reference video databases according to the literature. After performing a systematic literature review and experimental evaluations, the current approach has been proposed, which has the following modules: preprocessing, face detection, tracking, feature extraction, clustering, temporal similarity analysis, and spatial reclustering. The proposed approach for face clustering achieved the planned objectives obtaining better results (according to different metrics) than those presented by methods evaluated on the YouTube Celebrities videos dataset (KIM et al., 2008) and SAIVT-Bnews videos dataset (GHAEMMAGHAMI, DEAN e SRIDHARAN, 2013)

    Dicionário de Biblioteconomia e Arquivologia

    Get PDF
    O objetivo deste dicionário é definir, de forma clara, sucinta e simples, os termos utilizados por bibliotecários, arquivistas e demais profissionais da ampla e multifacetada área de ciência da informação, facilitando a expansão de seus conhecimentos. O critério básico para inclusão de um termo foi seu uso potencial ao longo do exercício profissional desses especialistas. Em muitos verbetes foram incluídas abonações extraídas da literatura técnico-científica e de léxicos gerais e especializados. A tarefa de compilação sistemática de terminologia é vital para o desenvolvimento de qualquer ramo técnico-científico, pois é impossível atingir clareza e precisão sem uniformidade na linguagem pelos praticantes da área. Amplo em seu escopo, com mais de quatro mil verbetes, o dicionário inclui não somente a terminologia das várias especializações dentro da biblioteconomia, arquivologia, documentação e estudos de informação, mas também os principais termos de direito autoral, editoração, comércio livreiro, artes gráficas, história do livro, bibliografia, comunicação científica, telecomunicações e informática. Servirá, portanto, a bibliotecários, arquivistas, editores, livreiros, estudantes, pesquisadores e demais profissionais que trabalham na coleta, armazenamento, processamento, recuperação e difusão da informação, em seu formato tradicional impresso ou em meio eletrônico. Colaborará também para atender às necessidades daqueles estudiosos que necessitam da terminologia técnica em inglês

    O desafio da homogeneização normativa em instituições de memória: proposta de um modelo uniformizador e colaborativo

    Get PDF
    Doutoramento em Informação e Comunicação em Plataformas DigitaisA informação digitalizada e nado digital, fruto do avanço tecnológico proporcionado pelas Tecnologias da Informação e Comunicação (TIC), bem como da filosofia participativa da Web 2.0, conduziu à necessidade de reflexão sobre a capacidade de os modelos atuais, para a organização e representação da informação, de responder às necessidades info-comunicacionais assim como o acesso à informação eletrónica pelos utilizadores em Instituições de Memória. O presente trabalho de investigação tem como objetivo a conceção e avaliação de um modelo genérico normativo e harmonizador para a organização e representação da informação eletrónica, num sistema de informação para o uso de utilizadores e profissionais da informação, no contexto atual colaborativo e participativo. A definição dos objetivos propostos teve por base o estudo e análise qualitativa das normas adotadas pelas instituições de memória, para os registos de autoridade, bibliográfico e formatos de representação. Após a concetualização, foi desenvolvido e avaliado o protótipo, essencialmente, pela análise qualitativa dos dados obtidos a partir de testes à recuperação da informação. A experiência decorreu num ambiente laboratorial onde foram realizados testes, entrevistas e inquéritos por questionário. A análise cruzada dos resultados, obtida pela triangulação dos dados recolhidos através das várias fontes, permitiu concluir que tanto os utilizadores como os profissionais da informação consideraram muito interessante a integração da harmonização normativa refletida nos vários módulos, a integração de serviços/ferramentas comunicacionais e a utilização da componente participativa/colaborativa da plataforma privilegiando a Wiki, seguida dos Comentários, Tags, Forum de discussão e E-mail.The growth of digital information (born digital and digitalized), as a result of the technological advances of ICT (Information and Communication Technologies), raised the need for a reflection on the information models adopted by the memory institutions such as Libraries, Archives and Museums (LAM), and their ability to answer the information needs of their users. This research work aims at designing and evaluating a generic model for the organization and representation of electronic information in an information system. This model is intended for users’ and information professionals’ use, taking advantage of the current collaborative and participatory environment context. The conceptualization of the model design was based on the qualitative analysis results of the authority records, bibliographic records and representation formats standards adopted by memory institutions. After design harmonization, a prototype was developed to test the ideas and concepts underlying the model. The data was collected through retrieval information tests, performed at the prototype, by users and information professionals (in a total of thirty participants). The experience took place in a laboratory context. The data collection was carried out through the application of different data gathering techniques, such as tests, interviews and questionnaire surveys. The triangulation of cross-analysis results achieved from various sources showed that both users and information professionals found the integration of standard harmonization reflected in the various modules very interesting, as well as the integration of services / communication tools and the use of a participatory component / collaborative platform focusing on the Wiki, followed by Comments, Tags, Discussion forums and E-mail

    Quantificação da criatividade no processo de design: inovação e ideação de artefactos através dos processos analógico e digital

    Get PDF
    O presente projeto de investigação centra-se na compreensão do efeito do relacionamento das formas de representação externas analógicas e digitais com o ato reflexivo e, consequentemente, com o resultado criativo na área de design de produto. O campo de ação a que nos referimos é caracterizado pelos constituintes operativos do processo projetual de design, onde coexistem o espaço concetual metafísico estruturado por um processamento mental responsável pela criação, organização, sintetização e tomada de decisões e o espaço físico, designado pela prática e pela concretização materializada, que promove a reflexão. Na combinatória das ações relacionadas com o pensar e o fazer em projeto, a interação do designer com as ferramentas de representação, no ato de modelação, proporcionam o que Schön (1989) designou por “reflection-in-action” que significa a interpretação e a descrição dos conceitos, e que mais tarde deu origem ao paradigma da coevolução do enquadramento do espaço do problema e do espaço da solução (Dorst e Cross, 2001), que na sua relação, proporciona um resultado inovador, criativo. Da década de 1990 até hoje, as vivências projetuais têm-se alterado no modo de pensar e fazer o projeto, não só pela conjuntura evolutiva económica e social, mas fundamentalmente pela evolução tecnológica, com a integração dos recursos digitais nas práticas representativa e comunicativa do projeto. Oxman (2006, p.242) focou a preponderância deste fenómeno, referindo que os processos digitais estão a contribuir para a emergência do domínio do conhecimento e que “Information has become a new material for the designers”. O novo paradigma da prática do projeto descreveu a emergente necessidade para a formulação de novas metodologias, fundamentais para a estruturação do “design thinking” e para a reestruturação de novas semânticas para descrever e materializar os projetos, no que se consideram os vocábulos concetuais, signos do design. Esta nova amplitude de reflexão e da criação de um modus operandi, diferenciado pela componente da relação do designer com a ferramenta digital, tornou-se determinante para a constituição da nossa questão de partida que consistiu na dúvida se “Estaremos a articular e a utilizar da melhor forma, as ferramentas de exteriorização e reflexão analógicas e digitais, na fase de ideação do projeto?”. Verificando o quadro teórico e prático projetual nos currículos de ensino superior de Design, através da disseminação de um inquérito por questionário e um exercício de campo em aula, x concluímos que não existe sinergia de utilização dos meios analógicos e digitais no desenvolvimento dos projetos, e a fase de ideação é essencialmente estruturada pela aplicação dos meios analógicos, prevalecendo ainda uma cultura do desenho por esboço. Os resultados destes dois métodos de prospeção do meio do ensino revelaram um aspeto preocupante, que acreditamos ter um impacto negativo nos resultados criativos dos projetos dos atuais discentes. No inquérito por questionário, foi mencionada, pelos alunos, a grande dificuldade sentida nas modelações por desenho de esboço e pelos meios digitais, o que significa que, se os discentes não conseguem representar, não conseguem processar a ação de reflexão e consequentemente não conseguem atingir resultados criativos optimizados. Procurando perceber se a utilização sinergética das modelações analógica e digital na fase de ideação podem constituir um melhor corpo de conhecimento e uma maior dimensão criativa, o nosso estudo defende a tese que “A utilização sinergética das modelações analógica e digital, na fase de ideação do projeto de design, potencia os resultados criativos”. Procuramos, com este estudo, perceber melhor a semântica aplicada ao processo de reflexão em design, responsável pela ação de criação e compreender como se pode gerir da melhor maneira as formas de representação, para garantir a formação de novas competências no exercício projetual dos futuros profissionais. Objetivamos ainda a formulação de conhecimentos transdisciplinares e inovadores que integrem o atual corpo de conhecimento de investigação em design e que, de alguma forma, possam também constituir a criação de novas estruturas metodológicas curriculares com fundamentos teóricos e práticos, com o objetivo de promover melhor o ensino projetual. A investigação que propomos, com a aplicação de um caso de estudo experimental com alunos do IADE-UE, procurou analisar os elementos mais influentes responsáveis pela relação de diálogo do designer com o processo, e perceber a função dos instrumentos analógicos e digitais na concetualização das ideias. Reconhecemos que os critérios ensaiados nas fases analógica e digital de controlo e híbrida de experimentação, geraram resultados semelhantes em termos de variação estatística. Porém, sob uma análise mais aprofundada, percebemos que as frequências entre condições nos casos da análise da fluência (capacidade de identificar os requisitos do problema), a flexibilidade (capacidade de ver o problema num contexto abrangente), as relações entre o enquadramento do problema e o enquadramento da solução e o grau de novidade, apresentam tendencionalmente a prevalência da modelação híbrida como a forma de modelação que melhor potencia os resultados criativos. Vários investigadores têm debatido a criatividade no processo de design em matérias de estudo que se ligam ao modo operacional da cognição, processo de estruturação das ideias, tipologias xi de pensamento, métodos de promoção de ideias, os fatores externos condicionadores ou estimuladores do processo. No entanto, poucos estudos centram-se no processo tangível e nas ferramentas de concetualização e materialização das ideias à luz do ensino, vistos por uma abordagem comparativa dos recursos analógicos e digitais. As investigações existentes são maioritariamente ligadas ao efeito da modelação do desenho pelos esboços onde destacamos os trabalhos de Nigel Cross, Kees Dorst, Teresa Amabile, Katja Tcshimmel, Gabriela Goldschmidt, Bryan Lawson, Henry Cristiaans, Herbert Simon, entre outros. Acreditamos, contudo, que a sinergia das modelações analógica e digital possam desbloquear a gestação das ideias, possibilitando uma ampliação dos mecanismos dialéticos entre o designer, o meio e o problema. Para compreender este fenómeno, propusemos o nosso estudo realizado em cinco fases: a constituição da questão de investigação e o propósito, o enquadramento teórico e a constituição da problemática, construção do modelo de análise e identificação da hipótese e aplicação do caso de estudo, tratamento de dados. Por último, a discussão dos resultados e conclusão, identificando a tendência que, através da modelação híbrida, se conseguem processar resultados mais criativos, abre o caminho para que esta investigação possa ser mais aprofundada, experimentando outras variáveis de estudo, e para que possivelmente se possam desenvolver ferramentas híbridas que, na continuidade dos estudos de Dorta e Lesage (2008), venham a optimizar a exteriorização das ideias dos designers. Com a realização deste estudo, ambicionamos propiciar uma maior consciencialização para a importância dos meios de representação e as formas de modelação associadas à estrutura reflexiva do ato de criação. A vida é um sistema que evolui a cada passo experimental, que realizamos.The present research project focuses on the understanding of the effect of the relationship between analogical and digital forms of representation, upon the reflective act and consequently, with the creative result in the product design field. The action field is characterized by the operative constituents of the design process. The conceptual, metaphysical space coexists with mental processing, and is responsible for creation, organization, synthesis and decision making. The physical space is designated by practice and by materialization, which promotes reflection. The interaction of the designer with the representation tools, and the act of modeling, provide what Schön (1989), called "reflection-in-action". This method consists of the interpretation and the description of the concepts, which develops the co-evolutionary concept of the problem space and solution space framework (Dorst and Cross, 2001). The relationship between these spaces, provide innovative and creative results. Since the 90's until today, the approach to project thinking and project doing, have changed. This is partly due to the evolution of economic and social structures and systems, and more significantly, by fundamental advancements of technology and integration of digital resources. These progressions have modified the representative practice and communicative nature of the project. Oxman (2006, p.242) focused on the preponderance of this phenomenon by saying that digital processes are contributing to the emergence of the knowledge domain and "Information has become a new material for the designers". The new paradigm of project practice describes the emerging need for the formulation of new methodologies. It is fundamental for the design thinking construction to be restructured using new semantics to conceptually describe and materialize the projects. This new breadth of reflection, which spotlights the relation between the designer and digital tools, defined the starting question: “Are we articulating and using the best exteriorization and reflection tools (analog and digital) in the phase of ideation in the development of the project?” Through a questionnaire survey and class exercise, it was concluded that there is no synergy of use between the analog and digital means in the development of the projects. The phase of ideation is essentially structured by the application of analogical tools, prevailing a culture of sketching. The results of these two methods of the teaching field, revealed an uncomfortable aspect, that we believe the separation of the methods to have a negative impact, on the creative xiii results of the students' projects. In the questionnaire survey, it was mentioned by the students, that they have great sketching difficulty, drawing and using digital media. It is significant that they cannot represent in both forms and that they cannot process the reflection-in-action. Consequently, they cannot achieve optimized creative results. In order to understand if the synergistic use of analogical and digital models in the ideation phase can constitute, a better body of knowledge and a greater creative dimension, our study defends the thesis that "The synergistic use of analogical and digital modulations, in the ideation phase of the design project, create best creative results." We seek with this study, to understand the semantics of the reflection process in design, which is responsible for the creation action. This will aid in understanding how to better manage the forms of representation in order to guarantee the new competences formation onto future professional designers. We aim to formulate transdisciplinary and innovative knowledge that integrates the current body of research knowledge in design. This will constitute the creation of new methodological, curricular structures with theoretical and practical foundations to promote better design education. The study we propose, applied an experimental case study with IADE-EU students, which sought to investigate the most influential elements, responsible for the relationship dialogue between the designer and the process. The study desired to understand the function of analogical and digital instruments within the ideas. We recognize that the criteria tested in the analog, digital and hybrid experimentation phases have generated similar results in terms of statistical variation. However, under a micro-analysis, we perceive that the frequencies between conditions in the cases of fluency analysis (ability to identify problem requirements), flexibility (ability to see the problem in a broad context), relationships between problem framing and the solution, and the degree of novelty, tendentially present the prevalence of hybrid modeling as the best enhancer of creative results. Several researchers have debated creativity in the design process about study materials, that relate to the operational mode of cognition, process of structuring ideas, typologies of thought, methods of promoting ideas, external conditioning factors, and stimulators of the process. However, few studies have focused on the tangible process and the contextualizing and materializing idea tools in the teaching field. Existing investigations are mostly linked to the effect of sketch modeling, where we highlight the works of Nigel Cross, Kees Dorst, Teresa Amabile, Katja Tcshimmel, Gabriela Goldschmidt, Bryan Lawson, Henry Cristiaans, and Herbert Simon, among others. We believe, however, that the synergy of analogical and digital modeling can xiv unlock idea gestation by enabling an expansion of the dialectical mechanisms between the designer, environment and the problem. To understand this phenomenon, we proposed in our study a set of five phases: the constitution of the research question and the purpose, the theoretical framework and the problematic constitution, analysis model construction and identification of the hypothesis and application of the case study, data treatment. Finally, the results discussion and conclusion, identifying the trend that, through hybrid modeling exist a better tendency to promote more creative results, opens the way for this research to be further explored. In experimenting with other study variables and developing new hybrid tools in the continuation of the studies of Dorta and Lesage (2008), this approach will optimize the idea exteriorization of designers. With the accomplishment of this study, we aim to provide greater awareness for the importance of the means of representation in design and the forms of modeling associated with the reflexive structure of the act of creation. Life is a system that evolves, with every experimental step we take

    Sistema de classificação de tipos de movimentos no esporte tênis utilizando sensores inerciais e técnicas de aprendizado de máquina supervisionado

    Get PDF
    A classificação automática de movimentos (golpes) de tênis para a geração de dados relacionados ao desempenho durante a prática esportiva pode auxiliar atletas no aprimoramento dos movimentos e direcionamento de estratégias de treinamento. A presente pesquisa detalha o processo de desenvolvimento de um dispositivo vestível, que é acoplado ao pulso do tenista, e se propõe a detectar e classificar os três principais movimentos do tênis: saque, forehand e backhand. O dispositivo é composto, principalmente, pelos módulos ESP-WROOM-32D e MPU-6050, possuindo o segundo dois sensores: um acelerômetro e um giroscópio. Ambos sensores possuem três eixos, utilizados para mensurar aceleração e velocidade angular durante a prática do esporte. Tanto os sensores não foram caracterizados isoladamente quanto o sistema, restringindo a extrapolação das análises feitas para outros sistemas e necessitando ainda que os resultados do sistema de medidas sejam validados. Uma base de dados, composta pelos três movimentos, foi coletada pelo autor durante a pesquisa e avaliada em relação a 90 características que representam cada um dos golpes estudados. Para classificação, as melhores características foram selecionadas com o uso de RFECV (Recursive Feature Elimination with cross-validation) e três modelos de aprendizado de máquina supervisionado (Árvore de Decisão, Floresta Aleatória e SVM) foram otimizados com o uso de busca de grade, comparados e avaliados. Todos os modelos apresentaram assertividade média de 100 % na classificação dos movimentos propostos para os testes realizados, com uma latência média no sistema embarcado de ± para o modelo SVM (melhor resultado). Para os modelos de Árvore de Decisão e Floresta Aleatória, com a otimização dos hiperparâmetros, foi obtido um valor de 2 para a profundidade das árvores, indicando uma baixa complexidade dos modelos e uma boa capacidade das características escolhidas em diferenciar os movimentos. Todos os modelos se mostraram capazes de classificar, em tempo real, os movimentosThe automatic classification of tennis strokes for the generation of data related to the performance during sports practice can help athletes in the improvement of movements and targeting training strategies. The present research details the development process of a wearable device, which is attached to the tennis player's wrist, and proposes to detect and classify the three main tennis movements: serve, forehand and backhand. The device is mainly composed by the modules ESP-WROOM-32D and MPU-6050, the second having two sensors: an accelerometer and a gyroscope. Both Sensors have three axes, used to measure acceleration and angular velocity during the practice of the sport. Both the sensors were not characterized in isolation as well as the device, restricting the extrapolation of the analyzes made to other systems and still requiring the results of the measurement system to be validated. A database, composed by the three movements, was collected by the author during the research and evaluated based on 90 characteristics that represent each of the studied strokes. For classification, the best features were selected using RFECV (Recursive Feature Elimination with cross-validation) and three supervised machine learning models (Decision Tree, Random Forest and SVM) were optimized using grid search, compared and evaluated. All models showed an accuracy of 100 % for the movements classification in the executed tests, with an average latency in the embedded system of 2.38 ± 0.18 for the SVM model (best result). For the Decision Tree and Random Forest models, with the hyperparameters optimization, a value of 2 was obtained for the trees depth, indicating a low complexity of the models and a good capacity of the chosen characteristics to differentiate the movements. All models were able to classify, in real time, the proposed movements

    Um arcabouço holístico para a execução de funções virtualizadas de rede : arquitetura, gerenciamento e aplicações

    Get PDF
    Orientador: Elias Procópio Duarte JúniorTese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa : Curitiba, 16/12/2022Inclui referênciasÁrea de concentração: Ciência da ComputaçãoResumo: O paradigma de Virtualização de Funções de Rede (Network Function Virtualization - NFV) visa desacoplar as funções de rede de hardware dedicado, utilizando tecnologias de virtualização para implementar as funções em software. A arquitetura de referência NFV tem sido amplamente adotada, sendo esta composta por três domínios: Infraestrutura Virtualizada (Virtualized Infrastructure - VI), Gerenciamento e Orquestração de NFV (NFV Management and Orchestration - NFV-MANO), além das próprias Funções Virtualizadas de Rede (Virtualized Network Functions - VNF). Já serviços virtualizados são definidos como composições de funções virtualizadas, organizados através de topologias que estabelecem o fluxo de processamento do tráfego de rede. Apesar do grande potencial do paradigma NFV, ainda existem importantes desafios para garantir que seja amplamente adotado nas infraestruturas modernas de telecomunicação. Esta Tese tem como objetivo principal contribuir para a gerência do ciclo de vida de funções e serviços virtualizados de rede. Neste sentido assume-se a premissa de que é essencial garantir previsibilidade operacional e padronização dos elementos que atuam no domínio de VNF, i.e., das plataformas de execução de VNF e dos Sistemas de Gerenciamento de Elemento (Element Management System - EMS). São propostas na Tese arquiteturas que descrevem um modelo de execução e gerenciamento padronizado tanto para plataformas de execução de VNF, como para o EMS, compatíveis com a arquitetura de referência NFV-MANO. As arquiteturas propostas preveem protocolos, interfaces de comunicação e orientações de integração com demais elementos e sistemas NFV. Ambas as arquiteturas foram implementadas e estão disponíveis como software livre: a plataforma COVEN de execução de VNF e o EMS HoLMES. Resultados de avaliação experimental e estudos de caso são apresentados e discutidos. Também, uma investigação do impacto das arquiteturas propostas em três contextos distintos é então introduzida. Inicialmente, é explorado seu impacto como facilitador para a gerência de NFV. Em seguida, o foco fica no compartilhamento de instâncias de funções e serviços de rede, e na emulação NFV. A Tese apresenta também contribuições no contexto de serviços virtualizados de rede. Em particular, o mapeamento multidomínio consiste na implantação de serviços em infraestruturas de virtualização distribuídas. Assim, foi proposta uma estratégia de mapeamento baseado em heurísticas genéticas, denominada GeSeMa. A estratégia permite que seus operadores definam diferentes critérios de avaliação e otimização em busca de mapeamentos de serviço adequados às suas necessidades específicas. Neste sentido, o GeSeMa representa um avanço do estado da arte, pois outras soluções operam de maneira monolítica, não permitindo que operadores e gerentes de rede personalizem o esquema de otimização adotado (e.g., métricas a serem avaliadas, pesos a serem considerados e restrições de mapeamento relacionadas a cada serviço em particular). A solução foi testada em múltiplos estudos de caso e os resultados demonstram sua aplicabilidade e ?exibilidade ao lidar com diferentes cenários de otimização de mapeamentos multidomínio. Finalmente, outras duas contribuições da Tese relacionadas ao paradigma NFV são apresentadas como apêndices, nos contextos de tolerância a falhas e engenharia de tráfego.Abstract: The Network Function Virtualization (NFV) paradigm aims to decouple network functions from dedicated hardware, employing virtualization technologies to implement functions in software. The NFV reference architecture has been widely adopted. This architecture, in turn, is composed of three domains: Virtualized Infrastructure (VI), NFV Management and Orchestration (NFV-MANO), and Virtualized Network Functions (VNF). Compositions of virtualized functions define virtualized services, organized as topologies through which network trafic is steered. Despite the extraordinary potential of the NFV paradigm, there are still relevant challenges to ensure its wide adoption by modern telecommunication infrastructures. The main objective of this Thesis is to contribute to the life cycle management of virtualized network functions and services. In this context, we consider it essential to guarantee the operational predictability and organization of the elements of the VNF domain, i.e., VNF execution platforms, and the Element Management System (EMS). Thus, this Thesis presents architectures that describe a standardized execution and management model for both VNF execution platforms and EMS. The proposed architectures are compliant with the NFV-MANO reference architecture and provide protocols, communication interfaces, and guidelines for their integration with other NFV elements and systems. Both architectures have been implemented and are available as open-source software: the COVEN VNF execution platform and the HoLMES EMS. Experimental evaluation results and case studies are presented and discussed. An investigation of the impact of the proposed architectures in three di?erent contexts is also introduced. First, we explore the opportunities regarding the proposed architectures as enablers for NFV management. Then, the focus goes to sharing instances of network functions and services and NFV emulation. In addition, the Thesis presents contributions in the context of virtualized network services. Multidomain mapping consists of deploying services on distributed virtualization infrastructures. A mapping strategy based on genetic heuristics, called GeSeMa, was proposed. GeSeMa enables its operators to define multiple optimization criteria for searching candidate service mappings tailored to their specific requirements. The proposed strategy represents a state-of-the-art advance, as other solutions operate in a monolithic manner: they do not allow operators and network managers to customize the adopted evaluation setup (e.g., metrics to be evaluated, weights to be considered, and mapping constraints related to each specific service). We tested GeSeMa in multiple case studies; the results demonstrate its applicability and flexibility in dealing with different multidomain mapping optimization scenarios. Finally, two other contributions related to the NFV paradigm, approaching fault tolerance and trafic engineering, are presented as appendices

    Avaliação de técnicas de similaridade textual na uniformização de jurisprudência

    Get PDF
    Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2020.A uniformização de jurisprudência é de extrema importância para a sociedade. Através dela é possível garantir maior celeridade processual e estabilidade jurídica à medida que novos casos são julgados com base na mesma tese jurídica de casos similares anteriores. Para garantir o efetivo acesso às teses, as bases textuais são indexadas em ferramentas de busca textual. Este estudo tem como contexto o Superior Tribunal de Justiça (STJ) que possui uma ferramenta legada de busca textual que fornece somente buscas baseadas em consultas booleanas com operadores lógicos e de proximidade complexos. Para facilitar a busca no corpus de decisões da Corte, a Secretária de Jurisprudência (SJR) fornece diversos produtos, como consultas pré-construídas para teses importantes e decisões agrupadas que possuem as mesmas teses. Assim, é possível acessar de forma otimizada a interpretação da legislação pelo STJ e acompanhar a sua evolução. O tempo dispendido na construção das consultas e no treinamento de servidores para utilização da ferramenta motiva este trabalho na avaliação da aplicação de outras técnicas de similaridade na recuperação de decisões. Como baseline utilizamos as consultas do sistema legado e comparamos com buscas a partir de textos, que descrevem as teses, escritos pelos servidores ou textos selecionados diretamente das decisões. Os resultados indicam que a utilização direta dos textos com modelos tradicionais TF-IDF e BM25 pode substituir as consultas do sistema legado. Os modelos semânticos baseados em predição Word2Vec e BERT não apresentaram ganhos em relação aos modelos clássicos.Jurisprudence is the set of all decisions of a judicial court and when they are organized efficiently they reflect the majority interpretation of the same court and thus consolidate an legal thesis used repeatedly. Hence, it is possible to guarantee faster judgments and legal stability as new cases are judged based on the same legal thesis as previous similar cases. This research investigates the use of text retrieval techniques on the Brazilian Superior Court of Justice decisions. The Court uses a legacy textual system that only provides complex Boolean queries. The training of new analysts on the tool takes between 2 and 3 months. This scenario motivates the research of other textual retrieval techniques that use text written in natural language as a queries. Through a historical base of legal theses descriptions written by the analysts, the decisions that those theses were extracted and the legacy system queries built to retrieve decisions with the same theses this work simulates two approaches. First, recovery of decisions after a user selects paragraphs with the legal opinion. Second, recovery of decisions after a user enters the legal opinion description in free text. The legacy system is used as baseline and compared with TF-IDF, BM25 retrieval models and prediction based semantic models Word2Vec and BERT. The results indicate that it is possible to replace the legacy system using classic and semantic textual retrieval using the decisions text as queries, with minimum intervention from the user
    corecore