1,601 research outputs found

    Modelo de mapa do conhecimento em instituições

    Get PDF
    Resumo: Este trabalho tem por objetivo propor um modelo para mapear o conhecimento de colaboradores e pesquisadores em instituições. Aborda o problema da perspectiva do compartilhamento do conhecimento científico. O modelo proposto utiliza uma estrutura baseada nos seguintes componentes: atores, grupos de trabalho e artefatos produzidos. O enfoque está na definição do fluxo de atividades necessárias para a construção do mapa do conhecimento e nas alternativas disponíveis para visualização das informações. Com base na revisão da literatura, uma metodologia para apoiar a construção do mapa do conhecimento é apresentada e opções para visualização das informações são propostas. Como prova de conceito, desenvolveuse um sistema utilizando os dados disponíveis na Plataforma Lattes sobre os pesquisadores e professores dos programas de pós-graduação stricto sensu da Universidade Federal do Paraná. A base de dados criada é caracterizada e algoritmos de mineração de dados são aplicados, buscando identificar relacionamentos não conhecidos anteriormente. A validação do modelo proposto é feita por meio do uso da prova de conceito que é composto por dois processos. O primeiro processo é responsável por importar os dados em formato XML para a base de dados do modelo proposto. O segundo processo é responsável por disponibilizar ferramentas para que o usuário possa consultar o mapa do conhecimento e visualizar os resultados utilizando diferentes técnicas como páginas amarelas e grafos. A implementação da prova de conceito auxiliou na identificação dos aspectos positivos do modelo proposto e na detecção de deficiências. Destaca-se como aspectos positivos a criação de um banco de dados especializado, a facilidade de navegação entre as informações disponíveis no banco, a possibilidade de filtrar os resultados das consultas e as diferentes opções de visualização disponíveis, considerando a problemática que norteou a pesquisa sobre construção de mapas do conhecimento que incentivem o compartilhamento e facilitem a localização do conhecimento

    Mineração de dados para modelagem de dependência usando algoritmos genéticos

    Get PDF
    Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.O desafio da área de Descoberta de Conhecimento em Bancos de Dados, ou KDD, é analisar de forma eficiente e automática a grande massa de informações disponível, extraindo conhecimento útil. Neste trabalho, apresentamos GenMiner, uma ferramenta de Mineração de Dados para a tarefa de Modelagem de Dependência. Um algoritmo genético, método de otimização da Computação Evolucionária, foi desenvolvido para descobrir regras interessantes em bases de dados relacionais. A avaliação das regras é realizada individualmente, favorecendo regras com alta precisão e, preferencialmente, surpreendentes. A integração a bases de dados relacionais foi viabilizada pela codificação dos cromossomos como expressões em linguagem SQL. GenMiner foi avaliado usando uma base de dados de domínio público, com informações sobre diversos países e suas bandeiras

    Uma metodologia de uso de técnicas de indução para criação de regras de sistemas especialistas

    Get PDF
    Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro tecnológico. Programa de Pós-Graduação em Engenharia de ProduçãoO presente trabalho relata a necessidade, na era atual, da utilização de sistemas especialistas para auxiliar os tomadores de decisão empresarial, pois a enorme quantidade de informações encontradas nas bases de dados das empresas torna a análise destas sem a ajuda da informática inviável, uma vez que a capacidade de inferência humana é limitada. Além da precisão da extração de conhecimento novo útil a partir das informações contidas nestas bases de dados de forma automática computacionalmente, pois tal conhecimento pode ser utilizado para a formação da base de conhecimento de um sistema especialista. Procedeu-se então, a busca na literatura para a realização desta tarefa, encontrando a área de descoberta de conhecimento em base de dados como orientação para tal, a qual propõe a aplicação de algoritmos de mineração de dados, além de atividades de pré-processamento dos dados e pós-processamento do conhecimento descoberto, entre outras. Dentre os algoritmos de mineração de dados encontrados destaca-se o ID3, o qual realiza a aprendizagem supervisionada a partir de exemplos, representando o conhecimento descoberto através de árvore de decisão. Fazendo a "leitura" da árvore pode-se representar este conhecimento na forma de regras e com parte do embasamento teórico de regras de associação calcular o suporte (probabilidade) e a confiança de cada regra. Assim, este estudo possibilitou a criação de uma metodologia de uso de técnicas de indução para criação de regras de sistemas especialistas. Tal metodologia conduziu a criação de um protótipo de software, denominado GARP, que proporciona a geração automática de regras probabilísticas podendo ser usadas em qualquer shell de sistemas especialistas baseada em regras. Para validação desta metodologia, o protótipo criado foi submetido a testes utilizando-se bases de dados fictícios como também, uma aplicação real do jogo de empresas GI-EPS. Por fim, são apresentadas algumas constatações referentes a aplicação desta metodologia em relação ao algoritmo de mineração de dados utilizado, o ID3

    Filhote - ferramenta de suporte à análise e interpretação de dados biológicos

    Get PDF
    This work presents a proposal to structure the data of fishes collected in the region of hydroelectric plant Luís Eduardo Magalhães (or hydroelectric plant of Lajeado), during the 1999-2012 period and also a tool development, called Filhote, for the administration of these data. The main purpose is to provide an efficient way to manipulate and store the obtained data, enabling the construction of time series aggregating results from future collections. To this intent, it was developed a data model for the structured storage of this set, aiming to provide the basis for studies on the monitoring of fish fauna in environments with and without reservoir. Taking this model as the basis, the Filhote tool has been integrated into the application of Data Mining WEKA in order to provide the researcher a means of data analysis through the generation of association rules. The data model and the developed tool are viable to treatment of existing data and they are presented as a good alternative for projects that collect data in this same direction, enabling the expansion of the storage modules, as well as the inclusion of new data mining algorithms.Este trabalho apresenta uma proposta para a estruturação dos dados de peixes coletados na região da Usina Hidrelétrica Luís Eduardo Magalhães (ou Usina de Lajeado), no período de 1999 a 2012, e o desenvolvimento de uma ferramenta, chamada Filhote, para a administração destes dados. O principal objetivo é oferecer um meio de manipulação e armazenamento eficiente aos dados obtidos possibilitando a construção de séries históricas com a agregação de resultados de futuras coletas. Para isto, foi desenvolvido um modelo de dados para o armazenamento estruturado desta série, visando servir de alicerce aos estudos de monitoramento da fauna de peixes em ambientes com e sem reservatório. Tomando este modelo como base, a ferramenta Filhote foi integrada à aplicação de Mineração de Dados WEKA com o intuito de prover ao pesquisador um meio de análise de dados através da geração de regras de associação. O modelo de dados e a ferramenta desenvolvida são viáveis para o tratamento dos dados existentes e se apresentam como uma boa alternativa para projetos que coletam dados neste mesmo sentido, possibilitando a expansão dos módulos de armazenamento, bem como com a inclusão de novos algoritmos de mineração de dados

    Um modelo representativo de conhecimento para aplicação da mineração de dados no cadastro técnico urbano

    Get PDF
    Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção

    Mineração de Dados usando o software WizRule em Base de Dados de Compras de TI

    Get PDF
    Esta pesquisa tem como objetivo validar a hipótese de que a Mineração de Dados pode ser aplicada em base de dados de compra, gerando a descoberta do conhecimento oculto, como uma grande contribuição ao processo decisório da gestão de compras. Para melhor compreensão desse trabalho abordamos, na Revisão de Literatura, primeiramente, um histórico sobre o processo decisório, bem como a evolução dos estudos deste tema e da relação entre a Tomada de Decisão e os Sistemas de Informação. Posteriormente, ainda na Revisão da Literatura, nos voltamos para a abordagem sobre as ferramentas, objeto deste estudo,   Data Warehouse e Data mining, passando pelo processo KDD, por constituírem uma recente geração de Sistemas de Apoio à Decisão. O Data Warehouse por tratar-se de um banco de dados apropriado para objetivos gerenciais e o Data Mining por permitir a análise dos dados armazenados para a descoberta das relações ocultas, revelando informações valiosas sobre as compras já efetuadas. Por fim, demonstraremos, no último capítulo deste trabalho, a aplicação prática do Data Mining em base de dados de compras de TI de uma empresa de grande porte, incluindo a análise dos resultados gerados e comprovando ser de grande utilidade o uso dessas ferramentas na obtenção de informação útil sustentando o processo decisório e a estratégia de negócios na área de compras de produtos

    Comparação da redução de dimensionalidade de dados usando seleção de atributos e conceito de framework: um experimento no domínio de clientes

    Get PDF
    Information related to the Customers at companies are collected and stored in databases. The administration of these data often requires the use of a computational tool. The building of a Customer Profile model from the database requires the process of knowledge discovery in databases. This search of knowledge and extraction patterns of the databases demands the use of a tool with analytics capability to extract information that are implicit, and are previously unknown, but, potentially useful. A data base through of the recovery of date, obtain information of the Customers, but the difficulty is in the fact of these systems do not generate patterns. However, these databases have an expressive amount of data, where redundant information it prejudices this process of patterns extraction. Thus, dimensionality reduction methods are employed to remove redundant information and improve the performance of the learning processes the speed as in the performance of classifier. Furthermore, it identifies a subset of relevant and ideal attributes for a determinate database. The two methods of dimensionality reduction used in this search were: Attribute Selection and Framework Concepts which theretofore were not applied in Customer domain. The Attribute Selection Method has as goal to identify the relevant attributes for a target task, taking into account the original attributes. Considering the Framework Concepts it promotes successive refinements on the attributes where can tale he building of a model more consistent application domain. The present search applied these two methods in order to comparison of these in the Customer domain, using three databases called: Stalog, Customer e Insurance. This paper identified five main steps in order to comparison of the two methods: Preparation of Database, Choice of Database, Application of the Attributes Selection and Framework Concepts Methods, Execution of the Algorithms of the Classification and Evaluation of the Results. With the implementation of theses five steps composed of several processes, it was possible to compare the two methods and identify the best classifiers algorithms and consequently to create the attributes more relevant for a database, increasingthe performance of the learning process. Of this way, with the best subset identified is possible submit them to the application of the Data Mining Tasks which allow the building of rules that help the Knowledge Management of Customer Profile.Os dados de clientes nas empresas são coletados e armazenados em um Banco de Dados e sua administração requer o uso de uma ferramenta computacional. A construção de um modelo de Perfil de Cliente a partir de um banco de dados requer o processo descoberta de conhecimento em uma base de dados. Essa busca de conhecimento e extração de padrões das bases de dados demanda a utilização de um aplicativo com capacidade analítica para extrair informações que estão implícitas e desconhecidas, porém, potencialmente úteis. Um Banco de Dados por meio do processo de recuperação é capaz de obter informações dos clientes, mas a dificuldade é de que esses sistemas não geram padrões. Estes Bancos de dados contêm uma quantidade expressiva de atributos, os quais podem prejudicar o processo de extração de padrões. Assim, métodos de redução de dimensionalidade são empregados para eliminar atributos redundantes e melhorar o desempenho do processo de aprendizagem tanto na velocidade quanto na taxa de acerto. Também identificam um subconjunto de atributos relevantes e ideal para uma determinada base de dados. Os dois métodos de redução utilizados nesta pesquisa foram: Seleção de Atributos e Conceitos de Framework, até então não aplicados no domínio de Clientes. O Método de Seleção de Atributos tem o intuito de identificar os atributos relevantes para uma tarefa alvo na Mineração de Dados, levando em conta os atributos originais. Já os Conceitos de Framework promovem sucessivos refinamentos nos atributos que podem levar a construção de um modelo mais consistente em um domínio de aplicação. A presente pesquisa aplicou esses dois métodos para comparação destes no domínio Clientes,usando três bases de dados chamadas: Stalog, Customere Insurance. Identificaram-se cinco etapas principais para a comparação dos dois métodos de redução: Preparação das Bases de Dados, Escolha das Bases de Dados, Aplicação dos Métodos de Seleção de Atributos e dos Conceitos de Framework, Execução dos Algoritmos de Classificação e Avaliação dos Resultados. Com a operacionalização das cinco etapas, compostas por vários processos, foi possível comparar os dois métodos e identificar os melhores algoritmos que aumentam a taxa de acerto dos algoritmos classificadores e consequentemente gerar os atributos mais relevantes para uma base de dados, aumentando o desempenho do processo de aprendizagem. Desta forma, com os melhores subconjuntos identificados é possível submetê-los a aplicação de tarefas da Mineração de Dados as quais permitem a construção de regras que ajudam na Gestão do Conhecimento do Perfil do Cliente

    Database marketing e mineração de dados: ferramentas de TI que auxiliam a aprimorar os resultados da empresa

    Get PDF
    Este trabalho apresenta como o Database Marketing (Banco de Dados voltado para ações de Marketing), apoiado por um processo de mineração de dados eficiente, é uma ferramenta essencial para o marketing, que utiliza a tecnologia da informação e possibilita a redução dos custos, aumento da rentabilidade e maior conhecimento dos clientes com objetivos diversos, incluindo oferecer os produtos e serviços certos para cada um, de acordo com o perfil, e deve ser considerado no planejamento estratégico de uma organização. Realizou-se um estudo sobre a utilização do banco de dados em atividades de marketing para geração de negócio, sendo tratado como um processo estruturado, que permite sua utilização extensiva através de técnicas de tratamento de dados e mineração de dados, possibilitando a criação de ações eficazes de marketing. Deste modo, serão descritas as melhores práticas de mineração de dados e marketing direto e como elas já foram utilizadas em um projeto de Database Marketing. Abordaremos o estudo de caso de um programa de relacionamento de uma empresa do mercado de benefícios que foi premiado com o troféu de ouro e o título de “O Melhor dos Melhores de CRM/DBM” no Prêmio de Marketing Direto oferecido pela ABEMD (Associação Brasileira de Marketing Direto) que reconhece com essa iniciativa os projetos que mais se destacaram nos quesitos criação, estratégia e, principalmente, resultados
    corecore