37,035 research outputs found

    Proposta de utilização de mineração de textos para seleção, classificação e qualificação de documentos.

    Get PDF
    Introduçaõ. Revisão de literatura. proposta de aplicação da Agência. Hipóteses. Resultados esperados. Trabalhos futuros.bitstream/CNPTIA/10656/1/doc47.pdfAcesso em: 29 maio 2008

    Inserção de dados faltantes não aleatórios para estimativa de variável geometalúrgica

    Get PDF
    Para um bom aproveitamento dos recursos minerais, é necessário potencializar o controle geológico e metalúrgico vinculado a um bom planejamento de lavra. Assim, é possível uma previsão acurada de produção da usina de beneficiamento. Para isso, é imprescindível um modelamento robusto do depósito. Esse modelo deve contemplar as variáveis químicas (variável preditora) e a relação dessas variáveis com a recuperação mássica do recurso (variável resposta). Por depender da relação com outras variáveis a recuperação mássica é não aditiva. Essa não aditividade deve ser respeitada utilizando metodologias adequadas para modelá-la. Outro fator importante é a relação numérica entre dados metalúrgicos e dados químicos. Geralmente, a coleta e análise de dados metalúrgicos é inexistente, ou significativamente menor que o número de amostras químicas, e geralmente sua disposição espacial é concentrada apenas nas regiões de alto teor. O que caracteriza os dados como faltantes não aleatórios (MNAR). Isso pode dificultar ou impedir a integração bem-sucedida da variável metalúrgica ao modelo através de métodos geoestatísticos. A primeira etapa deste trabalho foi complementar os dados faltantes. O método utilizado para inserção é a atualização bayesiana, com transformação fixa dos resultados MAR (mecanismo de falta aleatória) em MNAR (mecanismo de falta não aleatória). Após o banco completo, a estimativa da recuperação respeitou sua não aditividade, utilizando a metodologia de estimada por regressão de Esperança Condicional Alternada (Alternating Conditional Expectation - ACE). A partir dos métodos listados, foi criado um modelo geometalúrgico. Com o modelo geometalúrgico, foram construídas pilhas de homogeneização e a partir dos valores obtidos na usina de beneficiamento foi feito uma reconciliação. Adicional a essa validação, foram aplicadas as metodologias de estimativa às novas amostras de laboratório. Assim, pôde-se comparar os valores estimados com o modelo de recuperação mássica, contra os valores obtidos com o teste de laboratório. A reconciliação das pilhas processadas na usina demonstrou que a inserção de dados melhorou a acuracidade e precisão das estimativas do modelo geometalúrgico, obtendo correlação de 0,73 e erro relativo de 1,65, comparado ao modelo gerado com o banco original com dados faltantes não aleatórios, que obteve correlação de 0,65 e erro relativo de 5,85.For mineral resource, it is necessary to strengthen geological and metallurgical control linked to good mining planning. Thus, an accurate production forecast of the beneficiation plant is possible. For this, a robust deposit modeling is essential. This model should consider the chemical variables (predictor variable) and the relation of these variables to the mass recovery of the resource (response variable). Because it depends on the relationship with other variables, the mass recovery is non-additive. This non-additivity must be respected using appropriate methodologies to model it. Another important factor is the numerical relationship between metallurgical data and chemical data. Generally, the sampling and analysis of metallurgical data is non-existent, or significantly less than the number of chemical samples, and generally their spatial arrangement is concentrated only in high grade zones. This characterizes the data as non-randomly missing (MNAR). This may hinder the successful integration of the metallurgical variable into the model through geostatistical methods. The first step of this work was to complement the missing data. The method used for imputation is the Bayesian update, with fixed transformation of the MAR results (missing at random mechanism) into MNAR (missing not at random mechanism). After the dataset is complemented, the estimate of recovery mass performed using the Alternating Conditional Expectation (ACE) regression, respected its non-additivity. With the above mentioned methods, a geometalurgical model was built. From this model, homogenization piles were generated, and from the values obtained in the processing plant a reconciliation was made. In addition to this validation, the estimation methodologies were applied to the new laboratory samples. Thus, it was possible to compare the values estimated with the mass recovery model, against the values obtained with the laboratory test. The reconciliation of the processed piles at the plant showed that the data imputation improved the accuracy and precision of the estimates of the geometallurgical, with 0.73 of correlation and 1.65 of relative error compared to the model generated with the original dataset with missing data not at random, with 0.65 of correlation and 5.85 of relative error

    Considerations of territorial fragmentation and ecological corridors

    Get PDF
    Ao longo deste artigo são abordadas as diversas dimensões do conceito de fragmentação territorial bem como os instrumentos de análise espacial no seu estudo e avaliação. São igualmente afloradas as metodologias para a definição territorial de redes de corredores ecológicos. A utilização de indicadores de composição e configuração permite a monitorização dos efeitos da fragmentação territorial, causados pelas diferentes açcões do homem na matriz territorial. Indicadores, que caracterizam as manchas territoriais tendo em conta a dimensão, a forma e o grau de conectividade das manchas do habitat na resistência e promoção dos movimentos das espécies de fauna e flora. O planeamento de redes de corredores ecológicos tem por objectivo minimizar os efeitos negativos da fragmentação territorial. A modelação geográfica e as metodologias de estatística espacial apresentam-se como um meio na identificação de soluções e alternativas de redes de corredores ecológicos para a articulação territorial

    Aid in the detection of myocardial perfusion abnormality utilizing SPECT atlas and images registration: preliminary results

    Get PDF
    OBJETIVO: Criar um atlas de cintilografia de perfusão miocárdica e verificar sua aplicabilidade no auxílio computadorizado à detecção de defeitos perfusionais miocárdicos em pacientes portadores de cardiopatia isquêmica. MATERIAIS E MÉTODOS: O atlas foi criado com imagens de cintilografia de perfusão miocárdica, em condições de repouso e estresse, de 20 pacientes de ambos os gêneros com baixa probabilidade de doença arterial coronariana e julgadas normais por dois observadores experientes. Técnicas de registro de imagens e operações matemáticas sobre imagens foram utilizadas para obtenção de modelos de média e desvio-padrão da captação miocárdica percentual de cada gênero e condição fisiológica. RESULTADOS: Imagens de um paciente masculino e um feminino foram alinhadas com os atlas correspondentes, e os voxels apresentando valores de captação percentual dois desvios-padrão abaixo da média da respectiva região do atlas foram destacados nos cortes tomográficos e confirmados como defeitos de perfusão por dois observadores experientes. CONCLUSÃO: Demonstramos a criação de um atlas de cintilografia de perfusão miocárdica e obtivemos resultados promissores na sua utilização para auxílio à detecção de defeitos perfusionais. Entretanto, uma validação prospectiva com um número mais representativo de casos é necessária.OBJECTIVE: To develop an atlas of myocardial perfusion scintigraphy and evaluating its applicability in computer-aided detection of myocardial perfusion defects in patients with ischemic heart disease. MATERIALS AND METHODS: The atlas was created with rest-stress myocardial perfusion scintigraphic images of 20 patients of both genders with low probability of coronary artery disease and considered as normal by two experienced observers. Techniques of image registration and mathematical operations on images were utilized for obtaining template images depicting mean myocardial uptake and standard deviation for each gender and physiological condition. RESULTS: Myocardial perfusion scintigraphy images of one male and one female patient were aligned with the corresponding atlas template image, and voxels with myocardial uptake rates two standard deviations below the mean voxel value of the respective region in the atlas template image were highlighted on the tomographic sections and confirmed as perfusion defects by both observers. CONCLUSION: The present study demonstrated the creation of an atlas of myocardial perfusion scintigraphy with promising results of this tool as an aid in the detection of myocardial perfusion defects. However, further prospective validation with a more representative sample is recommended

    Um modelo de formalização do processo de desenvolvimento de sistemas de descoberta de conhecimento em banco de dados

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de ProduçãoDefinição de um modelo de formalização do processo de desenvolvimento de sistemas de descoberta de conhecimento em banco de dados, que inclui uma metodologia sistemática e rigorosa e um ambiente interativo para a implementação desses sistemas. A metodologia proposta integra UML (Unified Modeling Language) e Linguagem E-LOTOS (Enhancements to Language Of Temporal Ordering Specification). O principal objetivo é gerar informações relevantes à tomada de decisão, através da aplicação de técnicas de mineração de dados. O ambiente de implementação é baseado na Tecnologia de Agentes para facilitar o desempenho de suas tarefas. O modelo proposto foi aplicado na plataforma de informações da pós-graduação Brasileira (dados da CAPES 1998). Esta aplicação teve como principal objetivo validar a metodologia proposta, segundo critérios de análise encontrados na literatura

    Uma metodologia para classificação de dados nominais baseada no processo KDD

    Get PDF
    Resumo: A classificação de padrões é um problema de aprendizado supervisionado do campo da ciência conhecido como Reconhecimento de Padrões (RP), através do qual se deseja discriminar instâncias de dados em diferentes classes. A solução para este problema é obtida por meio de algoritmos (classificadores) que buscam por padrões de relacionamento entre classes em casos conhecidos (treinamento), usando tais relações para classificar casos desconhecidos (teste). O desempenho em termos de acurácia preditiva dos algoritmos que se propõem a realizar tal tarefa depende muito da qualidade e dos tipos de dados contidos nas bases. Visando melhorar a qualidade dos dados e dar tratamento adequado aos tipos de dados utilizados, o presente trabalho faz uso do processo de Descoberta de Conhecimento em Bases de Dados (Knowledge Discovery in Databases; KDD), no qual a classificação é uma das tarefas da etapa conhecida como Mineração de Dados (Data Mining; DM). As etapas aqui aplicadas antes da classificação são a seleção de atributos wrapper e um processo de transformação de atributos baseado em Análise Geométrica de Dados (Geometric Data Analysis; GDA). Para a seleção de atributos é proposta uma nova técnica baseada em Algoritmo de Estimação de Distribuição (Estimation of Distribution Algorithm; EDA) e em Algoritmos Culturais (AC) batizada de Belief-Based Incremental Learning (BBIL). Para a transformação de atributos é aqui proposta a utilização de uma alternativa à clássica Análise de Componentes Principais (Principal Component Analysis; PCA) para lidar especificamente com dados nominais: a Análise de Correspondência Múltipla (Multiple Correspondence Analysis; MCA). Na etapa de DM, de fato, faz-se a aplicação de dois tradicionais classificadores da área de RP, Naïve Bayes e Função Discriminante Linear de Fisher (Linear Discriminant Analysis; LDA). Apoiado em argumentos teóricos e em testes empíricos realizados com nove diferentes conjuntos de dados nominais, o presente trabalho objetiva avaliar a capacidade do MCA e do BBIL em melhorar o desempenho de classificadores em termos de acurácia preditiva média. Com o objetivo de se beneficiar simultaneamente das vantagens de ambos os tratamentos de dados são avaliadas duas combinações entre estas técnicas. A primeira trata-se da transformação GDA sobre os atributos previamente selecionados e, a segunda, a seleção de factor scores do MCA utilizando o BBIL (metodologia proposta). Os resultados dos experimentos confirmam a melhoria no desempenho de classificação proporcionada pelos tratamentos realizados e atestam a superioridade da metodologia proposta na maioria das situações analisadas

    Proposta e avaliação de features para negociação algorítmica em mercado financeiro

    Get PDF
    Séries temporais de ativos financeiros de negociação são conhecidas por ter propriedades estocásticas que tornam a previsão uma tentativa quase fútil. Na Economia, a teoria dominante da Hipótese do Mercado Eficiente propõe que qualquer tentativa de prever os preços futuros de um ativo negociável é em vão e não deve ser perseguida. Nas últimas décadas, o surgimento de algoritmos de aprendizado de máquina deu à comunidade de in vestimentos ferramentas interessantes para avançar na pesquisa de previsão. No entanto, entendemos que algoritmos não são suficientes para fazer previsões bem-sucedidas: para construir modelos melhores, o pesquisador deve empregar o desenvolvimento de recur sos, especialmente com o conhecimento e experiência de um praticante e especialista no campo. Neste trabalho, avaliamos o desempenho de um algoritmo de classificação (QDA - Análise Discriminante Quadrática) com a adição de recursos, comparando os resultados com um benchmark (compra e retenção) e um experimento de linha de base. A investigação foi realizada usando o Contrato Futuro do Índice Bovespa (Ibovespa Futuro), fazendo previsões de curto prazo em um ambiente simulado.Time series of financial trading assets are known to have stochastic properties which turn prediction into an almost futile endeavor. In Economics, the mainstream theory of the Efficient Market Hypothesis proposes that any attempt to predict the future prices of a tradable asset is in vain, and should not be pursued. In the last decades, the advent of machine learning algorithms gave the investing community interesting tools for advanc ing the prediction research. However, we understand that algorithms are not enough to make successful predictions: in order to build better models the researcher should employ feature development, especially with the knowledge and experience of a practitioner and specialist in the field. In this work, we evaluate the performance of a classification algo rithm (QDA - Quadratic Discriminant Analysis) with the addition of features, comparing the results with a benchmark (buy-and-hold) and a baseline experiment. The investigation was carried out using the Bovespa Index Futures Contract (Ibovespa Futuro), by making short-term predictions in a simulated environment

    Live Seafood Chile S.A.: cultivo de abalones Haliotis spp. em Coquimbo / Chile.

    Get PDF
    TCC (graduação) - Universidade Federal de Santa Catarina, Centro de Ciências Agrárias, Curso de Engenharia de Aquicultura.O presente trabalho trata-se de um relatório sobre as etapas de cultivo de abalone Haliotis spp. na empresa Live Seafood, Coquimbo – Chile no período de 10 de agosto a 20 de outubro de 2011, com a finalidade de apresentar e descrever o cultivo de abalones. Durante o estágio houve uma rotação por todas as etapas de cultivo: setor de larvicultura, setor de pré-engorda e setor de gradeamento e movimento. Também foi realizado um pequeno experimento, para averiguar o efeito da densidade na sobrevivência das pós-larvas de abalone Haliotis spp. nos três primeiros meses de cultivo. As densidades exploradas foram de 200.000, 350.000 e 700.000 pós-larvas por tanque. Deste o princípio do experimento ao final não se evidenciou diferenças significativas entre as médias de sobrevivência, ao final do experimento as sobrevivências foram de: 10,32 + 9,88%, 12,77 + 10,66% e 3,50 + 1,06% para os tratamentos de densidade 200.000, 350.000 e 700.000 pós-larvas por tanque, respectivamente. Nesse caso a densidade não afeta na sobrevivência das pós-larvas, essa pode ser afetada por outros fatores, tais como oferta, tipo e período de alimentação
    corecore