141,492 research outputs found

    Metodologia e análise de dados

    Get PDF
    As instituições de formação de professores não têm, entre nós, uma tradição de investigação muitas são, aliás, relativamente recentes tendo como prática a importação da produção científica nessa área. Trata-se de uma situação insustentável face aos desafios que as práticas fazem à teoria. Por outro lado, a avaliação da formação ministrada constitui um segmento dessa lacuna. A investigação integrada no projecto da nossa Escola, apresentada aqui nas suas linhas gerais, constitui a expressão dessas preocupações. Uma tal investigação está condicionada, obviamente, por características metodológicas específicas, por opções deliberadas e por circunstâncias inerentes a um projecto institucional mais amplo que se esboça, funcionando no quadro de algumas dificuldades e limitações

    O tratamento e análise de dados

    Get PDF
    Este capítulo tem como principal objectivo auxiliar os investigadores na determinação do tipo de análise e na espécie de mecanismos de tratamento e analise de dados que melhor se adequam a investigação que se deseja levar a cabo. Por outras palavras, ate ao momento, o leitor foi convidado a reflectir sobre uma pergunta de investigação. Tudo começou com a definição de um problema que deverá ser suficientemente forte e relevante de maneira a servir de suporte e justificação à investigação decorrente. Do problema decorre uma pergunta de investigação que visa possibilitar a enumeração de hipóteses, com o propósito de serem testadas de maneira a resolver o problema enunciado. Ora, facilmente compreendemos que o tratamento e a analise de dados se revelam de extrema importância para qualquer tipo de investigação. Numa perspectiva dedutiva, permite-nos aferir a veracidade das hipóteses definidas, enquanto, se adoptarmos uma estratégia indutiva, e a ferramenta utilizada na tentativa de generalização das explicações encontradas

    Visualização e análise de dados de microclima

    Get PDF
    Este trabalho descreve o projeto, desenvolvimento e avaliação de um sistema Web que permite ao usuário visualizar e analisar dados obtidos de sensores distribuídos em um ambiente fechado. O desenvolvimento deste aplicativo foi motivado pelas necessidades das instalações aviárias. Nessas instalações, pode-se identificar um ou mais microclimas, cada um com características diferentes em relação a atributos como temperatura, umidade, velocidade e direção do vento, entre outros, que podem impactar na produção aviária. Um microclima é uma área pequena ou restrita que apresenta dados climáticos diferentes de sua grande área circundante. Nesta aplicação, o usuário tem acesso aos dados climáticos de diferentes locais, podendo visualizar a localização de cada conjunto de sensores a partir de uma planta baixa. Cada estação meteorológica gera um conjunto de dados que são então representados por diferentes técnicas de visualização de dados. A partir da definição de uma data ou de um período, o usuário pode navegar dentro do histórico de dados do sensor. Além disso, filtros foram desenvolvidos para modificar os dados selecionados. Esta aplicação tem como objetivo ajudar e facilitar o monitoramento desses microclimas usando técnicas de visualização e análise de dados. Os resultados obtidos em testes com usuários demonstram que nossos objetivos foram atingidos. Os usuários monstraram serem capazes de executar o conjunto de tarefas proposto usando a maioria das visualizações disponíveis.This work describes the design and evaluation of a Web-based system that allows the user to visualize and analyze data from sensors distributed in a closed environment. We developed the system motivated by the needs of aviary facilities. In these facilities, one can identify one or more microclimates, each one having different characteristics regarding attributes such as temperature, humidity, wind velocity and direction, and others, that may impact aviary production. A microclimate is a small or restricted area that presents different climate data from its large, surrounding area. In the application, users have access to climatic data from different locations, being able to view the location of each set of sensors from a floor plan. Each station has a set of data that is represented by different visualization techniques. From the definition of a date or a time period, the user is able to browse within the sensor data history. In addition, filters were developed to modify the selected data. This application aims to help and facilitate the monitoring of these microclimates by using visualization and data analysis techniques. The results obtained from user tests shown our objectives were achieved. Users have demonstrated that they are able to perform the proposed set of tasks using most of the available visualizations

    Análise de dados composicionais

    Get PDF
    Compositional Data (CoDa) are quantitative descriptions of the parts of a whole, which convey information relative to the total. The big difference, in this type of situation, is that the data components present a constant sum, 1 - for proportions and 100 - for percentages. Due to this restriction, compositional data has its own structure, called Simplex (natural space for such data), in which the operations performed may not have a clear correspondence with usual methods of real space. This fact culminates in the use of some transformations, which allow an equivalence between the Euclidean (real) space and the simplex space, making it possible to take advantage of the usual facilities of statistics and then return to the space with restrictions. The work addressed compositional transformations, exhibited the principles of compositional analysis, enunciated the operations in compositions, demonstrated the appropriate exploratory analysis and, finally, suggested alternatives for adapting models, in addition to explaining simulations and practical applications, which demonstrated analysis options of regression using the compositional methods in detriment to the usual methods.Os Dados Composicionais (ou Compositional Data, CoDa, acrônimo inglês) são descrições quantitativas das partes de um todo, que transmitem informações de forma relativa ao total. O grande diferencial, nesse tipo de situação, é que as componentes dos dados apresentam soma constante, 1 - para proporções e 100 - para porcentagens. Devido a esta restrição, os dados composicionais possuem uma estrutura própria, denominada Simplex (espaço natural para tais dados), no qual as operações realizadas podem não ter correspondência evidente com métodos usuais do espaço real. Este fato culmina no uso de algumas transformações, que permitem uma equivalência entre o espaço euclidiano (real) e o espaço simplex, sendo possível usufruir das facilidades usuais da estatística e depois retornar ao espaço com restrições. O trabalho abordou as transformações composicionais, exibiu os princípios da análise composicional, enunciou as operações em composições, demonstrou a análise exploratória apropriada e, por fim, sugeriu alternativas para adequação de modelos, além de explicitar simulações e aplicações práticas, que demonstraram opções de análise de regressão utilizando os métodos composicionais em detrimento aos métodos usuais

    Real-time data analytic platform

    Get PDF
    Atualmente, o mundo dos dados está a crescer, sobretudo nas áreas de Data Science e Data Engineering. A análise de dados, tem-se tornado cada vez mais relevante para obter um conhecimento mais profundo sobre uma determinada empresa e representa uma oportunidade de negócio, precisamente devido à emergente presença de dados derivados da Inteligência Artificial, Internet of Things (IoT), social media e componentes de software/hardware. De modo a processar, analisar e distribuir estes dados num curto espaço de tempo, o tem ganho popularidade e as plataformas de análise de dados em tempo real começaram a surgir, colocando de lado os tradicionais processamentos de dados por lotes. De facto, para desenvolver uma plataforma de análise de dados, em tempo real ou não, as arquiteturas de Big Data e os seus componentes tornaram-se essenciais. As arquiteturas de Big Data existentes, Lambda e Kappa, são suportadas por vários componentes, oferecendo a oportunidade de explorar as suas funcionalidades para desenvolver plataformas de análise de dados em tempo real. Ao implementar este tipo de soluções, surge, por vezes, a questão sob qual das arquiteturas será a mais adequada a um determinado tipo de negócio. Neste relatório de estágio, é demonstrada a análise e conclusões sobre uma possível correlação entre os tipos de negócio e quais as soluções de análise de dados mais adequadas para os suportar. Ao longo deste documento, é ainda ponderada a possibilidade de desenvolver uma plataforma de análise de dados em tempo real, genérica o suficiente, para ser aplicável em qualquer tipo de negócio, reduzindo significativamente os custos de desenvolvimento e implementação. Neste contexto, são examinadas as arquiteturas Lambda e Kappa, por forma a entender se são suficientemente universais para essa possibilidade ou se é viável uma personalização baseada nos seus componentes. De modo a comprovar se qualquer uma destas arquiteturas de é implementável numa plataforma genérica de análise de dados em tempo real, o relatório também descreve o desenvolvimento de um caso de uso específico baseado na arquitetura Kappa

    Sistemas informáticos para análise de dados demográficos: uma abordagem histórica

    Get PDF
    Comunicação apresentada ao Congresso da ADEH, 7, Granada, 2004

    Visualização e análise de dados arqueológicos usando o visualization toolkit

    Get PDF
    Os modelos virtuais são cada vez mais utilizados quer na divulgação de sítios arqueológicos, quer como ferramentas auxiliares do trabalho de investigação dos arqueólogos. Para tal, modelos 3D construídos com base numa interpretação dos dados arqueológicos, ou numa leitura de planos de escavação, podem ser entendidos como maquetas digitais virtuais, que podem ser “desmontadas” para melhor analisar e compreender uma reconstrução de estruturas arquitectónicas encontradas numa escavação, ou a visualização da distribuição espacial dos achados. Este artigo apresenta um segundo protótipo de uma aplicação que disponibiliza um conjunto de funcionalidades adequadas à análise arqueológica e que actuam sobre modelos virtuais 3D. À semelhança do anterior, este protótipo foi desenvolvido com base no VTK e permite atingir os objectivos definidos: (1) utilização de modelos 3D como ferramentas auxiliares do trabalho de investigação arqueológica e (2) reconstrução de sequências de planos de escavação. As novas leituras, decorrentes da combinação arbitrária de operações de rotação, translação, ampliação/redução, “desmontagem” e seccionamento de modelos 3D, permitem aos utilizadores do sistema compreender melhor os sítios arqueológicos em estudo.Zacon Grou

    Utilização da plataforma Galaxy na análise de dados de RNAseq.

    Get PDF
    Este trabalho teve como objetivo avaliar a plataforma Galaxy na análise de dados de RNA-seq, uma metodologia de sequenciamento de transcritos (moléculas de RNAm) que utiliza as novas tecnologias de sequenciamento (NTS)

    Análise multivariada na análise de dados de produção em forragicultura.

    Get PDF
    O objetivo foi utilizar técnicas multivariada na análise de dados de produção de matéria seca (PMS), de proteína bruta (PB), de Fibra em detergente neutro (FDN) e digestibilidade in vitro da matéria seca (DIVMS) obtidos de capim-coastcross (Cynodon dactylon) (L.) Pers. cv. Coastcross), de um experimento conduzido na Embrapa Pecuária Sudeste, São Carlos, SP. O delineamento experimental utilizado foi o de blocos casualizados, quatro repetições, com 10 tratamentos organizados em esquema fatorial2 x 5 (duas fontes de nitrogênio-N: uréia e nitrato de amônio; cinco doses de N: O, 25, 50, 100, 200 kg!ha/corte). As características foram avaliadas durante cinco cortes consecutivos, sendo os dados analisados por meio de modelo misto e medidas repetidas¬MR. As estruturas de variâncias e covariâncias selecionadas pelo critério de informação Akaike e teste de razão da razão da máxima verossimilhança restrito, para modelar os erros entre MR, foram: Huynh-Feldt (HF) para PMS e Não-Estruturada (UN) para PB, FDN e DIVMS. Conclui-se que a análise multivariada de ambos os procedimentos: GLM e MIXED, pode ser utilizada para a análise de PMS, PB, FDN e DIVMS
    corecore