10 research outputs found
Educational Robotics in Science Teaching: A Study on The Development of a Research Project at the Federal Institute of Education Science and Technology of Rio Grande do Sul (IFRS)
The use of technologies such as educational software and robotics to support the teaching and learning process is increasing. Educational robotics has proven to arouse interest in students, as it allows physical handling and active participation in the learning process. In this sense, this manuscript aims to describe the Educational Robotics research project as an Incentive to the Study of Science approved in PROPPI EDITAL No. 77/2017 - INTERNAL SOURCE 2018/2019, which had as a proposal to integrate undergraduates of Licentiate Degree in Mathematics and Computer Science of IFRS - Campus Ibirubá to jointly carry out analyzes and develop procedures for teaching and learning science (mathematics/physics) using Educational Robotics resources, motivating students of the Technical Course in Computing Integrated to High School. Thus, while this project offered an internship field for undergraduates, it promoted interest in the study of science among participants, leading them to engage and promoting greater participation
Relato sobre o desenvolvimento de modelos para obtenção automática do conteúdo de sites sobre saúde
Este relato técnico descreve o desenvolvimento de modelos, técnicas e protótipos para localização, padronização e extração automática do conteúdo apresentado em sites/páginas web com assuntos relacionados à área da saúde, visando à estimativa da qualidade destes sites/páginas extraídos. As técnicas e propostas descritas neste documento foram desenvolvidas ao longo do primeiro semestre de 2009 pelos alunos da disciplina CMPl12 - Sistemas de Informação Distribuídos do Programa de Pós-Graduação do Instituto de Informática da Universidade Federal do Rio Grande do Sul, ministrada pelo Professor Dr. José Palazzo Moreira de Oliveira. Cada uma das tarefas descritas aplicou técnicas e tecnologias diferentes para o seu desenvolvimento, apresentando resultados de diferentes naturezas, como tabelas, protótipos e modelos. Entretanto, todas foram desenvolvidas em busca do mesmo objetivo: a extração automática do conteúdo de sites/páginas que tratam sobre o tema "Doença de Alzheimer". Ao final to trabalho, obteve-se um conjunto de resultados, os quais serão utilizados para possibilitar a realização de estimativas a respeito da qualidade dos sites/páginas extraídos, de acordo com métricas de qualidade definidas.This report describes the development of models, techniques and prototypes to location, standardization and automatic extraction of content presented in web sites/pages with subject related to health, objecting estimate its quality. The techniques and proposals described here was performed during the first half of 2009 by students of the lecture CMP112 – Distributed Information Systems of Institute of Informatics of Federal University of Rio Grande do Sul, conducted by Professor Dr. José Palazzo Moreira de Oliveira. Each one of the tasks described in this report used different techniques and technologies for their development, presenting results of different natures, such as tables, prototypes and models. However, all tasks were developed looking for the same objective: the automatic extraction of content from web sites/pages related with the subject “Alzheimer’s Disease”. At the end of the work, we obtained a set of results, which will be used to enable the development of estimative concerning the quality of extracted web sites/pages, according with defined quality metrics
Supporting temporal keyword queries on XML documents
Consultas por palavras-chave permitem o acesso fácil a dados XML, uma vez que não exigem que o usuário aprenda uma linguagem de consulta estruturada nem estude possíveis esquemas de dados complexos. Com isso, vários motores de busca XML foram propostos para permitir a extração de fragmentos XML relevantes para consultas por palavras-chave. No entanto, esses motores de busca tratam as expressões temporais da mesma forma que qualquer outra palavra-chave. Essa abordagem ocasiona inúmeros problemas, como por exemplo, considerar como casamentos para uma expressão temporal nodos do domínio preço ou código. Este trabalho descreve TPI (Two Phase Interception), uma abordagem que permite o suporte a consultas temporais por palavras-chave em documentos XML orientados a dados. O suporte a consultas temporais é realizado através de uma camada adicional de software que executa duas interceptações no processamento de consultas, realizado por um motor de busca XML. Esta camada adicional de software é responsável pelo tratamento adequado das informações temporais presentes na consulta e no conteúdo dos documentos XML. O trabalho ainda especifica TKC (Temporal Keyword Classification), uma classificação de consultas temporais que serve de guia para qualquer mecanismo de consulta por palavras-chave, inclusive TPI. São apresentados os algoritmos de mapeamento das diferentes formas de predicados temporais por palavras-chave, especificadas em TKC, para expressões relacionais a fim de orientar a implementação do processamento das consultas temporais. É proposto um índice temporal e definidas estratégias para identificação de caminhos temporais, desambiguação de formatos de valores temporais, identificação de datas representadas por vários elementos e identificação de intervalos temporais. São demonstrados experimentos que comparam a qualidade, o tempo de processamento e a escalabilidade de um motor de busca XML com e sem a utilização de TPI. A principal contribuição desse trabalho é melhorar significativamente a qualidade dos resultados de consultas temporais por palavras-chave em documentos XML.Keyword queries enable users to easily access XML data, since the user does not need to learn a structured query language or study possibly complex data schemas. Therewith, several XML search engines have been proposed to extract relevant XML fragments in response to keyword queries. However, these search engines treat the temporal expressions as any other keyword. This approach may lead to several problems. It could, for example, consider prices and codes as matches to a temporal expression. This work describes TPI (Two Phase Interception), an approach that supports temporal keyword queries on data-centric XML documents. The temporal query support is performed by adding an additional software layer that executes two interceptions in the query processing performed by a XML search engine. This additional software layer is responsible for the adequate treatment of the temporal expressions contained in the query and in the contents of the XML documents. This work also specifies TKC (Temporal Keyword Classification), a temporal query classification to be used as guidance for any keyword query mechanism, including TPI. We present the algorithms for mapping different temporal predicates expressed by keywords to relational expressions in order to guide the implementation of the temporal query processing. We propose a temporal index together with strategies to perform temporal path identification, format disambiguation, identification of dates represented by many elements and detection of temporal intervals. This work also reports on experiments which evaluate quality, processing time and scalability of an XML search engine with TPI and without TPI. The main contribution of this work is the significant improvement in the quality of the results of temporal keyword queries on XML documents
ORION: an effective and robust approach for acquiring attribute values of real-world entities
Página-entidade é uma página Web que publica dados que descrevem uma entidade de um tipo particular. Adquirir os valores dos atributos de entidades do mundo real publicados nessas páginas é uma tarefa estratégia para diversas empresas. Essa aquisição envolve as tarefas de encontrar as páginas-entidade nos sites e extrair os valores dos atributos publicados nessas páginas. Os trabalhos que discorrem sobre como realizar as tarefas de descoberta das páginasentidade e de extração dos dados de forma integrada possuem aplicação limitada porque são específicos para um domínio de aplicação ou porque requerem anotações a priori. Tendo em vista essa lacuna, esta Tese apresenta Orion, uma abordagem para aquisição de valores de atributos de entidades do mundo real a partir de páginas-entidade baseadas em template. Orion descobre as páginas-entidade nos sites e extrai os valores dos atributos publicados nessas páginas. A principal originalidade da abordagem Orion é realizar as tarefas de descoberta das páginas-entidade e de extração dos dados de forma integrada, independentemente de domínio de aplicação e de anotação a priori. A abordagem Orion inclui uma etapa de descoberta de páginas-entidade que combina características de HTML e URL sem a necessidade de intervenção do usuário para definição dos limiares de similaridade entre as páginas. A etapa de descoberta utiliza uma nova função de similaridade entre páginas baseada na URL que atribui diferentes pesos para os termos de URL de acordo com a capacidade de distinção de páginas-entidade das demais páginas. A abordagem Orion também inclui uma etapa de extração de valores de atributos a partir de consultas Cypher em um banco de dados orientado a grafos. Essa etapa infere as consultas automaticamente. A abordagem Orion é robusta porque inclui uma etapa adicional de reforço que realiza o tratamento de atributos com variação de template. Esse reforço é realizado por meio de uma combinação linear de diferentes funções de similaridade. A fim de avaliar a eficácia de cada etapa da abordagem isoladamente e da abordagem de forma integral, foram realizados experimentos exaustivos utilizando sites reais. Nesses experimentos, a abordagem Orion foi numérica e estatisticamente mais eficaz que os baselines.Entity-page is a Web page which publishes data that describe an entity of a specific type. Acquiring the attribute values of the real-world entities that are published in these pages is a strategic task for various companies. This acquisition involves the tasks of discovering the entitypages in the websites and extracting the attribute values that are published in them. However, the current approaches that carry out the tasks of discovering entity-pages and extracting data in an integrated way have limited applications because they are restricted to a particular application domain or require an a priori annotation. This thesis presents Orion, which is an approach to acquire the attribute values of real-world entities from template-based entity-pages. Orion discovers the entity-pages in the websites and extracts the attribute values that are published in them. What is original about the Orion approach is that it carries out the tasks of discovering entity-pages and extracting data in a way that is integrated, domain-independent, and independent of any a priori annotation. The Orion approach includes an entity-page discovery stage that combines the HTML and URL features without requiring the user to define the similarity threshold between the pages. The discovery stage employs a new URL-based similarity function that assigns different weights to the URL terms in accordance with their capacity to distinguish entity-pages from other pages. Orion also includes a stage during which the attribute values are extracted by means of Cypher queries in a graph database. This stage automatically induces the queries. It should be noted that the Orion approach is robust because it includes an additional reinforcement stage for handling attributes with template variations. This stage involves exploring a linear combination of different similarity functions. We carried out exhaustive experiments through real-world websites with the aim of evaluating the effectiveness of each stage of the approach both in isolation and in an integrated manner. It was found that the Orion approach was numerically and statistically more effective than the baselines
ORION: an effective and robust approach for acquiring attribute values of real-world entities
Página-entidade é uma página Web que publica dados que descrevem uma entidade de um tipo particular. Adquirir os valores dos atributos de entidades do mundo real publicados nessas páginas é uma tarefa estratégia para diversas empresas. Essa aquisição envolve as tarefas de encontrar as páginas-entidade nos sites e extrair os valores dos atributos publicados nessas páginas. Os trabalhos que discorrem sobre como realizar as tarefas de descoberta das páginasentidade e de extração dos dados de forma integrada possuem aplicação limitada porque são específicos para um domínio de aplicação ou porque requerem anotações a priori. Tendo em vista essa lacuna, esta Tese apresenta Orion, uma abordagem para aquisição de valores de atributos de entidades do mundo real a partir de páginas-entidade baseadas em template. Orion descobre as páginas-entidade nos sites e extrai os valores dos atributos publicados nessas páginas. A principal originalidade da abordagem Orion é realizar as tarefas de descoberta das páginas-entidade e de extração dos dados de forma integrada, independentemente de domínio de aplicação e de anotação a priori. A abordagem Orion inclui uma etapa de descoberta de páginas-entidade que combina características de HTML e URL sem a necessidade de intervenção do usuário para definição dos limiares de similaridade entre as páginas. A etapa de descoberta utiliza uma nova função de similaridade entre páginas baseada na URL que atribui diferentes pesos para os termos de URL de acordo com a capacidade de distinção de páginas-entidade das demais páginas. A abordagem Orion também inclui uma etapa de extração de valores de atributos a partir de consultas Cypher em um banco de dados orientado a grafos. Essa etapa infere as consultas automaticamente. A abordagem Orion é robusta porque inclui uma etapa adicional de reforço que realiza o tratamento de atributos com variação de template. Esse reforço é realizado por meio de uma combinação linear de diferentes funções de similaridade. A fim de avaliar a eficácia de cada etapa da abordagem isoladamente e da abordagem de forma integral, foram realizados experimentos exaustivos utilizando sites reais. Nesses experimentos, a abordagem Orion foi numérica e estatisticamente mais eficaz que os baselines.Entity-page is a Web page which publishes data that describe an entity of a specific type. Acquiring the attribute values of the real-world entities that are published in these pages is a strategic task for various companies. This acquisition involves the tasks of discovering the entitypages in the websites and extracting the attribute values that are published in them. However, the current approaches that carry out the tasks of discovering entity-pages and extracting data in an integrated way have limited applications because they are restricted to a particular application domain or require an a priori annotation. This thesis presents Orion, which is an approach to acquire the attribute values of real-world entities from template-based entity-pages. Orion discovers the entity-pages in the websites and extracts the attribute values that are published in them. What is original about the Orion approach is that it carries out the tasks of discovering entity-pages and extracting data in a way that is integrated, domain-independent, and independent of any a priori annotation. The Orion approach includes an entity-page discovery stage that combines the HTML and URL features without requiring the user to define the similarity threshold between the pages. The discovery stage employs a new URL-based similarity function that assigns different weights to the URL terms in accordance with their capacity to distinguish entity-pages from other pages. Orion also includes a stage during which the attribute values are extracted by means of Cypher queries in a graph database. This stage automatically induces the queries. It should be noted that the Orion approach is robust because it includes an additional reinforcement stage for handling attributes with template variations. This stage involves exploring a linear combination of different similarity functions. We carried out exhaustive experiments through real-world websites with the aim of evaluating the effectiveness of each stage of the approach both in isolation and in an integrated manner. It was found that the Orion approach was numerically and statistically more effective than the baselines
Um Mecanismo de Consulta Temporal por Palavras-Chave em Páginas Web
Este artigo apresenta um mecanismo que permite a realização de consultas em textos utilizando palavras-chave e restrições de tempo. Ao longo deste documento é apresentada a arquitetura do sistema e um protótipo desenvolvido que atua sobre páginas Web: o motor de busca Chronos. Com ele, são valorizadas páginas que possuem a informação temporal dentro do mesmo contexto dos termos pesquisados – sendo este o principal diferencial da ferramenta em relação aos mecanismos de busca atuais
Percepção de plágio acadêmico entre estudantes e professores de cursos de graduação e pós-graduação na modalidade a distância
presente artigo apresenta um estudo quali-quantitativo dirigido com o objetivo de identificar os motivos que podem levar os alunos de cursos ofertados na modalidade a distância a plagiarem e como os professores têm atuado a respeito deste problema nas atividades acadêmicas. Os resultados obtidos mostram que os professores consideram importante relatar os casos de plágio aos alunos para entendimento e correção, não se atendo apenas na punição. Já os estudantes demonstram a falta de conhecimento acerca das normas de citação, o que pode causar o plágio não intencional. Diante disso, julga-se necessário aplicar ações junto a comunidade acadêmica para conscientização da importância da utilização de fontes confiáveis e da atribuição correta aos autores originais, evitando assim a violação de direitos autorais
BDTC - Uma Biblioteca Digital de Trabalhos Científicos com Serviços Integrados
Este artigo apresenta a BDTC, uma biblioteca digital de trabalhos científicos. A BDTC é composta por um conjunto de serviços que busca atender a algumas necessidades dos usuários. O artigo foca a arquitetura da BDTC, mostrando especificamente os serviços de autoarquivamento de documentos, extração de metadados de arquivos PDF e uso de índices que fornecem suporte à busca por similaridade