141,492 research outputs found
Metodologia e análise de dados
As instituições de formação de professores não têm, entre nós, uma tradição de investigação muitas são, aliás, relativamente recentes tendo como prática a importação da produção científica nessa área. Trata-se de uma situação insustentável face aos desafios que as práticas fazem à teoria. Por outro lado, a avaliação da formação ministrada constitui um segmento dessa lacuna.
A investigação integrada no projecto da nossa Escola, apresentada aqui nas suas linhas gerais, constitui a expressão dessas preocupações.
Uma tal investigação está condicionada, obviamente, por características metodológicas específicas, por opções deliberadas e por circunstâncias inerentes a um projecto institucional mais amplo que se esboça, funcionando no quadro de algumas dificuldades e limitações
O tratamento e análise de dados
Este capítulo tem como principal objectivo auxiliar os investigadores na determinação do tipo de análise e na espécie de mecanismos de tratamento e analise de dados que melhor se adequam a investigação que se deseja levar a cabo. Por outras palavras, ate ao momento, o leitor foi convidado a reflectir sobre
uma pergunta de investigação. Tudo começou com a definição de um problema que deverá ser suficientemente forte e relevante de maneira a servir de suporte e justificação à investigação decorrente. Do problema decorre uma pergunta de investigação que visa possibilitar a enumeração de hipóteses, com o propósito de serem testadas
de maneira a resolver o problema enunciado. Ora, facilmente compreendemos que o tratamento e a analise de dados se revelam de extrema importância para qualquer tipo de investigação. Numa perspectiva dedutiva, permite-nos aferir a veracidade das
hipóteses definidas, enquanto, se adoptarmos uma estratégia indutiva, e a ferramenta
utilizada na tentativa de generalização das explicações encontradas
Visualização e análise de dados de microclima
Este trabalho descreve o projeto, desenvolvimento e avaliação de um sistema Web que permite ao usuário visualizar e analisar dados obtidos de sensores distribuídos em um ambiente fechado. O desenvolvimento deste aplicativo foi motivado pelas necessidades das instalações aviárias. Nessas instalações, pode-se identificar um ou mais microclimas, cada um com características diferentes em relação a atributos como temperatura, umidade, velocidade e direção do vento, entre outros, que podem impactar na produção aviária. Um microclima é uma área pequena ou restrita que apresenta dados climáticos diferentes de sua grande área circundante. Nesta aplicação, o usuário tem acesso aos dados climáticos de diferentes locais, podendo visualizar a localização de cada conjunto de sensores a partir de uma planta baixa. Cada estação meteorológica gera um conjunto de dados que são então representados por diferentes técnicas de visualização de dados. A partir da definição de uma data ou de um período, o usuário pode navegar dentro do histórico de dados do sensor. Além disso, filtros foram desenvolvidos para modificar os dados selecionados. Esta aplicação tem como objetivo ajudar e facilitar o monitoramento desses microclimas usando técnicas de visualização e análise de dados. Os resultados obtidos em testes com usuários demonstram que nossos objetivos foram atingidos. Os usuários monstraram serem capazes de executar o conjunto de tarefas proposto usando a maioria das visualizações disponíveis.This work describes the design and evaluation of a Web-based system that allows the user to visualize and analyze data from sensors distributed in a closed environment. We developed the system motivated by the needs of aviary facilities. In these facilities, one can identify one or more microclimates, each one having different characteristics regarding attributes such as temperature, humidity, wind velocity and direction, and others, that may impact aviary production. A microclimate is a small or restricted area that presents different climate data from its large, surrounding area. In the application, users have access to climatic data from different locations, being able to view the location of each set of sensors from a floor plan. Each station has a set of data that is represented by different visualization techniques. From the definition of a date or a time period, the user is able to browse within the sensor data history. In addition, filters were developed to modify the selected data. This application aims to help and facilitate the monitoring of these microclimates by using visualization and data analysis techniques. The results obtained from user tests shown our objectives were achieved. Users have demonstrated that they are able to perform the proposed set of tasks using most of the available visualizations
Análise de dados composicionais
Compositional Data (CoDa) are quantitative descriptions of the parts of a whole, which convey information relative to the total. The big difference, in this type of situation, is that the data components present a constant sum, 1 - for proportions and 100 - for percentages. Due to this restriction, compositional data has its own structure, called Simplex (natural space for such data), in which the operations performed may not have a clear correspondence with usual methods of real space. This fact culminates in the use of some transformations, which allow an equivalence between the Euclidean (real) space and the simplex space, making it possible to take advantage of the usual facilities of statistics and then return to the space with restrictions. The work addressed compositional transformations, exhibited the principles of compositional
analysis, enunciated the operations in compositions, demonstrated the appropriate exploratory analysis and, finally, suggested alternatives for adapting models, in addition to explaining simulations and practical applications, which demonstrated analysis options of regression using the compositional methods in detriment to the usual methods.Os Dados Composicionais (ou Compositional Data, CoDa, acrônimo inglês) são descrições quantitativas das partes de um todo, que transmitem informações de forma relativa ao total. O grande diferencial, nesse tipo de situação, é que as componentes dos dados apresentam soma constante, 1 - para proporções e 100 - para porcentagens. Devido a esta restrição, os dados composicionais possuem uma estrutura própria, denominada Simplex (espaço natural para tais dados), no qual as operações realizadas podem não ter correspondência evidente com métodos usuais do espaço real. Este fato culmina no uso de algumas
transformações, que permitem uma equivalência entre o espaço euclidiano (real) e o espaço simplex, sendo possível usufruir das facilidades usuais da estatística e depois retornar ao espaço com restrições. O trabalho abordou as transformações composicionais, exibiu os princípios da análise composicional, enunciou as operações em composições, demonstrou a análise exploratória apropriada e, por fim, sugeriu alternativas para adequação de modelos, além de explicitar simulações e aplicações práticas, que demonstraram opções de análise de regressão utilizando os métodos composicionais em detrimento aos métodos usuais
Real-time data analytic platform
Atualmente, o mundo dos dados está a crescer, sobretudo nas áreas de Data Science e Data
Engineering. A análise de dados, tem-se tornado cada vez mais relevante para obter um
conhecimento mais profundo sobre uma determinada empresa e representa uma oportunidade
de negócio, precisamente devido à emergente presença de dados derivados da Inteligência
Artificial, Internet of Things (IoT), social media e componentes de software/hardware.
De modo a processar, analisar e distribuir estes dados num curto espaço de tempo, o
tem ganho popularidade e as plataformas de análise de dados em tempo real começaram a
surgir, colocando de lado os tradicionais processamentos de dados por lotes. De facto, para
desenvolver uma plataforma de análise de dados, em tempo real ou não, as arquiteturas de Big
Data e os seus componentes tornaram-se essenciais.
As arquiteturas de Big Data existentes, Lambda e Kappa, são suportadas por vários
componentes, oferecendo a oportunidade de explorar as suas funcionalidades para desenvolver
plataformas de análise de dados em tempo real. Ao implementar este tipo de soluções, surge,
por vezes, a questão sob qual das arquiteturas será a mais adequada a um determinado tipo de
negócio.
Neste relatório de estágio, é demonstrada a análise e conclusões sobre uma possível correlação
entre os tipos de negócio e quais as soluções de análise de dados mais adequadas para os
suportar. Ao longo deste documento, é ainda ponderada a possibilidade de desenvolver uma
plataforma de análise de dados em tempo real, genérica o suficiente, para ser aplicável em
qualquer tipo de negócio, reduzindo significativamente os custos de desenvolvimento e
implementação. Neste contexto, são examinadas as arquiteturas Lambda e Kappa, por forma a
entender se são suficientemente universais para essa possibilidade ou se é viável uma
personalização baseada nos seus componentes. De modo a comprovar se qualquer uma destas
arquiteturas de é implementável numa plataforma genérica de análise de dados em
tempo real, o relatório também descreve o desenvolvimento de um caso de uso específico
baseado na arquitetura Kappa
Sistemas informáticos para análise de dados demográficos: uma abordagem histórica
Comunicação apresentada ao Congresso da ADEH, 7, Granada, 2004
Visualização e análise de dados arqueológicos usando o visualization toolkit
Os modelos virtuais são cada vez mais utilizados quer na divulgação de sítios arqueológicos, quer como ferramentas
auxiliares do trabalho de investigação dos arqueólogos. Para tal, modelos 3D construídos com base
numa interpretação dos dados arqueológicos, ou numa leitura de planos de escavação, podem ser entendidos
como maquetas digitais virtuais, que podem ser “desmontadas” para melhor analisar e compreender uma
reconstrução de estruturas arquitectónicas encontradas numa escavação, ou a visualização da distribuição
espacial dos achados.
Este artigo apresenta um segundo protótipo de uma aplicação que disponibiliza um conjunto de funcionalidades
adequadas à análise arqueológica e que actuam sobre modelos virtuais 3D. À semelhança do anterior,
este protótipo foi desenvolvido com base no VTK e permite atingir os objectivos definidos: (1) utilização de
modelos 3D como ferramentas auxiliares do trabalho de investigação arqueológica e (2) reconstrução de
sequências de planos de escavação. As novas leituras, decorrentes da combinação arbitrária de operações de
rotação, translação, ampliação/redução, “desmontagem” e seccionamento de modelos 3D, permitem aos utilizadores
do sistema compreender melhor os sítios arqueológicos em estudo.Zacon Grou
Utilização da plataforma Galaxy na análise de dados de RNAseq.
Este trabalho teve como objetivo avaliar a plataforma Galaxy na análise de dados de RNA-seq, uma metodologia de sequenciamento de transcritos (moléculas de RNAm) que utiliza as novas tecnologias de sequenciamento (NTS)
Análise multivariada na análise de dados de produção em forragicultura.
O objetivo foi utilizar técnicas multivariada na análise de dados de produção de matéria seca (PMS), de proteína bruta (PB), de Fibra em detergente neutro (FDN) e digestibilidade in vitro da matéria seca (DIVMS) obtidos de capim-coastcross (Cynodon dactylon) (L.) Pers. cv. Coastcross), de um experimento conduzido na Embrapa Pecuária Sudeste, São Carlos, SP. O delineamento experimental utilizado foi o de blocos casualizados, quatro repetições, com 10 tratamentos organizados em esquema fatorial2 x 5 (duas fontes de nitrogênio-N: uréia e nitrato de amônio; cinco doses de N: O, 25, 50, 100, 200 kg!ha/corte). As características foram avaliadas durante cinco cortes consecutivos, sendo os dados analisados por meio de modelo misto e medidas repetidas¬MR. As estruturas de variâncias e covariâncias selecionadas pelo critério de informação Akaike e teste de razão da razão da máxima verossimilhança restrito, para modelar os erros entre MR, foram: Huynh-Feldt (HF) para PMS e Não-Estruturada (UN) para PB, FDN e DIVMS. Conclui-se que a análise multivariada de ambos os procedimentos: GLM e MIXED, pode ser utilizada para a análise de PMS, PB, FDN e DIVMS
- …