9,624 research outputs found
Influence of different polishing materials in the material removal of steel samples
The quality of injection moulded polymer optic parts depends on the surface finish of the respective mould. In order to improve and control the surface finish of the mould it is important to be able to keep the material removal constant during the polishing process of these moulds. This will provide a tactical material removal therefore allowing a controlled correction of the mould’s surface geometry. The aim of this work is to study the influence of different polishing materials in the material removal rate and its reproducibility during the polishing process of hardened steel. Different polyurethane polishing materials with different fillers were tested. It was observed that the filler material of the polyurethane is crucial in order to obtain constant and reproducible results. Experiments were carried out with an industrial robot and the material removal’s depth value was compared
Coping with verbal and social bullying in middle school
Becoming a victim of verbal and social bullying in middle school can lead to illness,
psychological stress, and maladjustment. The coping strategies that students utilize when
they are bullied may influence the likelihood and severity of these negative effects. In
this study, we examined the predictions made by students in two middle schools about
the ways that they would cope with becoming a victim of verbal and social bullying. We
also analyzed influences for coping strategies and student willingness to seek help with
bullying at school. The results show that middle school students generally expect that
they will utilize adaptive approach strategies in trying to solve the problem or obtain
support from others, but those who had been victimized in the last month were more
likely than those not involved in bullying, to predict that they would engage in
maladaptive avoidance coping strategies if victimized in the future. Willingness to seek
help was found to be enhanced by approach coping strategies, less aggressive attitudes,
and lower perceptions of school bullying. Policy implications for efforts to encourage
approach coping strategies in middle school students through educational interventions
and school counseling are discussed.peer-reviewe
Reading in Cape Verde: Instructional Practices and Teacher Attitudes
Given that no extensive study on reading instruction and reading attitudes has been carried out country-wide in The Republic of Cabo Verde, (a ten island archipelago off the western coast of Africa), educational practitioners and policy makers in that nation are left with a dearth of accurate information when making decisions surrounding these constructs in the classroom, in the universities, or in the policy rooms of that nation. In a 2007 article, Commeyras & Inyega published research on reading instruction in Kenya and encouraged researchers to follow their example, i.e. to locate all pertinent literature and to conduct a review of the state of reading education in each of the African countries “for the benefit of all… who are working to promote and improve reading on the African continent.” (p.278). In order to collect information on reading instruction and reading attitudes in Cabo Verde (CV), the author distributed surveys to all 2972 primary level Cape Verdean teachers employed in Cabo Verde at the time of the study, visited the nine inhabited islands, and interviewed 116 Cape Verdean teachers teaching in primary schools on those islands. Results from these interviews and the 1071 returned surveys indicate that Grades 1-3 teachers in Cabo Verde most often use a bottom-up approach to reading instruction and teachers in Grades 4-6 most often use a top-down approach. Information gleaned from the surveys and the interviews show that most CV primary level teachers hold to a strict page-by-page use of the government provided textbook, with very limited use of children’s storybooks, folktales, children’s own authored stories, or narrative text longer than a few sentences or a paragraph. While varying by island and other demographics, few families have novels or story books at home and few teachers have them in their classrooms. A high percentage of respondents indicate that the reading of storybooks either in the classroom or for pleasure outside of school is not common across Cabo Verde. Variations in responses are discussed, and recommendations for future research are presented
A Map-algebra-inspired Approach for Interacting With Wireless Sensor Networks, Cyber-physical Systems or Internet of Things
The typical approach for consuming data from wireless sensor networks (WSN) and Internet of Things (IoT) has been to send data back to central servers for processing and analysis. This thesis develops an alternative strategy for processing and acting on data directly in the environment referred to as Active embedded Map Algebra (AeMA). Active refers to the near real time production of data, and embedded refers to the architecture of distributed embedded sensor nodes. Network macroprogramming, a style of programming adopted for wireless sensor networks and IoT, addresses the challenges of coordinating the behavior of multiple connected devices through a high-level programming model. Several macroprogramming models have been proposed, but none to date has adopted a comprehensive spatial model. This thesis takes the unique approach of adapting the well-known Map Algebra model from Geographic Information Science to extend the functionality of WSN/IoT and the opportunities for user interaction with WSN/IoT. As an inherently spatial model, the Map Algebra-inspired metaphor supports the types of computation desired from a network of geographically dispersed WSN nodes. The AeMA data model aligns with the conceptual model of GIS layers and specific layer operations from Map Algebra. A declarative query and network tasking language, based on Map Algebra operations, provides the basis for operations and interactions. The model adds functionality to calculate and store time series and specific temporal summary-type composite objects as an extension to traditional Map Algebra. The AeMA encodes Map Algebra-inspired operations into an extensible Virtual Machine Runtime system, called MARS (Map Algebra Runtime System) that supports Map Algebra in an efficient and extensible way. Map algebra-like operations are performed in a distributed manner. Data do not leave the network but are analyzed and consumed in place. As a consequence, collected information is available in-situ to drive local actions. The conceptual model and tasking language are designed to direct nodes as active entities, able to perform some actions on their environment. This Map Algebra inspired network macroprogramming model has many potential applications for spatially deployed WSN/IoT networks. In particular the thesis notes its utility for precision agriculture applications
Resilient random modulo cache memories for probabilistically-analyzable real-time systems
Fault tolerance has often been assessed separately in safety-related real-time systems, which may lead to inefficient solutions. Recently, Measurement-Based Probabilistic Timing Analysis (MBPTA) has been proposed to estimate Worst-Case Execution Time (WCET) on high performance hardware. The intrinsic probabilistic nature of MBPTA-commpliant hardware matches perfectly with the random nature of hardware faults.
Joint WCET analysis and reliability assessment has been done so far for some MBPTA-compliant designs, but not for the most promising cache design: random modulo. In this paper we perform, for the first time, an assessment of the aging-robustness of random modulo and propose new implementations preserving the key properties of random modulo, a.k.a. low critical path impact, low miss rates and MBPTA compliance, while enhancing reliability in front of aging by achieving a better – yet random – activity distribution across cache sets.Peer ReviewedPostprint (author's final draft
Material removal simulation for steel mould polishing
The surface finish of an injection mould influences the quality of the moulded polymer optic parts. In order to improve and control the surface finish of the mould it is important to be able to predict the material removal during the polishing process of this mould. The aim of this work is to predict the material removal during the polishing process, comparing the results obtained from polishing attempts on steel samples and the results obtained from a simulation model. A simulation model is developed with the abrasive wear Holm-Archard equation in ANSYS. This simulation model will help to eliminate the iterative trial and error polishing, therefore facilitating the steel mould production
Analysis of the Bell-type inequalities on the IBM's open-access quantum computer
Treballs Finals de Grau de Física, Facultat de Física, Universitat de Barcelona, Curs: 2020, Tutor: Artur Polls MartíWe have performed quantum mechanical calculations of the Bell's and the Clauseer-Horne-Shimony-Holt inequalities for the Bell's states, showing that they are violated by these en-tangled states. We have also used the open-access IBM's quantum computer to prepare the Bell's states and to engineer the quantum circuits to experimentally measure the inequalities finding good agreement with the quantum calculations. We have also checked that product states, which are non-entangled, fulfill the inequalities
PandeMedia: an annotated corpus of digital media for issue salience
Tese de mestrado, Ciência de Dados, 2022, Universidade de Lisboa, Faculdade de CiênciasThe ubiquitous sharing of information via the Internet has shifted much of society’s communication and information-seeking to digital spaces, such as news websites and social networks. As the Web
represents a massive hub of information dissemination and discussion, it has also made possible the extraction of great amounts of highly detailed data to answer complex questions on human behaviour and
preferences.
This shift towards online life was exaggerated during the earlier phases of the COVID-19 pandemic,
when many countries were in lockdown and in-person contact was severely limited. Therefore, in addition
to the ongoing political, economic, and public health crisis, there were, on the one hand, new opportunities
to study human behaviour thought digital data, including support for public health measures or trust in
science, while, on the other hand, the deluge of new data and the fast-changing nature of the pandemic
created new challenges to data science research, particularly the need to build quality pipelines for data
extraction, collection, and future analysis.
In this thesis, we focus on the important issue of salience of science and scientists during a health
crisis and ask how to build a pipeline to select, store, extract and analyse longitudinal digital media data,
that might allow for long-term study of media effects on salience. Therefore, this project has two main
components: first, we showcase a data pipeline that makes use of media and social media data, available
online, to build a media corpus of news and tweets with millions of documents, spanning billions of
tokens, corresponding to more than two years of coverage and multiple media sources and topics; second,
we show how this corpus can be leveraged to study the problem of salience, and use the visibility of
science during the earlier phases of the COVID-19 pandemic as a case-study, comparing between salience
in traditional versus social media. Overall, we present both a transparent and scaleable pipeline and a
specific application of this approach, to tackle the question of how science visibility changed during this
massive crisis. We use different media types and sources to potentiate text mining and other analytical
purposes, offering a digital data-centric computational methodology to investigate questions in the social
sciences.Os dados tomam, nos dias de hoje, um papel central no funcionamento das sociedades humanas. Com o
desenvolvimento das tecnologias digitais, aliadas à ubíqua conetividade à Internet, em particular à World
Wide Web (WWW), vivemos na chamada “era da informação” . Este paradigma da sociedade alicerça-se
no fenómeno tipicamente referido como datafication, que se refere ao processo já enraizado e inerente à
vida quotidiana através do qual a nossa atividade humana e formas de participação na sociedade são convertidas em dados. Esta produção em larga escala e em tempo real de dados funciona como o combustível
para um amplo leque de aplicações nos mais variados domínios, desde a indústria, à investigação científica, à saúde, entre outros. Deste modo, testemunhamos uma crescente procura, e mesmo necessidade,
de grandes coleções de dados, para alimentarem os diferentes setores de atividade.
A Web representa talvez o maior volume de dados amplamente disponível ao público em geral. É nos
websites e nas aplicações online que uma grande parte da população realiza diariamente um conjunto de
tarefas e ações, sejam estas de caráter profissional ou lúdico. Os nossos hábitos de consumo de informação
são assegurados predominantemente por estes espaços digitais, como as redes sociais ou as plataformas
digitais de media tradicionais. Da mesma forma, as nossas interações sociais mediadas por dispositivos
digitais são cada vez mais frequentes. A Web é, portanto, um reservatório de potenciais descobertas e de
informação valiosa, que pode ser eventualmente extraída através da exploração dos dados que contém.
Pela sua própria natureza, a Web levanta grandes desafios relativos às formas de capturar este valor
presente nos dados digitais. Enormes volumes de dados podem ser rapidamente e facilmente identificados e extraídos. No entanto, não existe um processo de acréscimo de valor a estes dados sem que passem
primeiramente por uma fase de organização. Para que seja possível extrair conhecimento dos dados obtidos, é necessário que estes apresentam a devida organização e qualidade. As maiores dificuldades nas
metodologias de colheita e gestão de dados digitais passam por assegurar precisamente esta qualidade. Os
dados da Web são naturalmente muito heterogéneos, visto resultarem da convergência de imensas fontes
de informação. São também, na sua maioria, não estruturados, nomeadamente em formatos textuais que
precisam de ser interpretados computacionalmente e compartimentalizados para facilitar futura análise.
Muitas vezes, existem também dados em falta ou que apresentam uma qualidade tão baixa que são inviáveis para as finalidades em mente. Para além destes fatores intrínsecos aos dados em si, as questões
que os rodeiam são também cruciais a considerar: a capacidade de detetar e localizar os dados pretendidos, a capacidade de aceder a estes dados, e o grau de disponibilidade destes dados, quando acessíveis.
Deve também ter-se em consideração as questões éticas, de privacidade e de direitos de autor associadas aos dados passíveis de serem colecionados. ... automatizar processos de colheita para fontes e tipos de
dados tão diversos quanto aqueles que se encontram disponíveis na Web.
A pandemia causada pelo SARS-CoV-2, agente da COVID-19, representa uma crise de enormes
proporções nas esferas política, económica e de saúde pública. Com a população do mundo restrita nos
seus comportamentos e hábitos de modo a prevenir um agravamento da propagação do vírus, as pessoas
recorreram ao digital como meio de comunicação e de obtenção e disseminação de informação (e desinformação). Assim, os media e as redes sociais foram relevantes pontos de convergência de uma grande
parte da atenção do público, levantando questões importantes sobre a perceção pública dos especialistas
científicos e sobre a saliência de certos tópicos de discussão.
Num contexto mais alargado, podemos perspetivar a crise pandémica como um desafio no domínio
das tecnologias da informação. No desenvolver desta emergência de saúde pública, temos vindo a ser
confrontados com vários dos desafios presentes em data science: dados complexos, na escala de populações inteiras, a serem produzidos em tempo real por múltiplas fontes, com diferentes estruturas e
formatos, e que sofrem uma rápida desatualização, requerem rápida análise, mas também processos de
limpeza e melhoramento robustos.
Todos estes fatores nos levam à nossa questão principal: numa crise que evolui tão rapidamente como
a pandemia da COVID-19, como podemos construir uma pipeline que nos permita responder aos desafios
da coleção e gestão de dados, de modo a criar um dataset de media digital para análise?
Para extrair os dados necessários, recorremos a três fontes distintas: a plataforma open-source Media
Cloud, a base de dados Internet Archive, e o API da rede social Twitter. Começámos por definir dezoito
tópicos distintos, constituídos por palavras-chaves para uso na pesquisa pelos artigos e posts de media.
Alguns tópicos são relacionados com a pandemia, enquanto outros funcionam como potenciais controlos
positivos e negativos. A coesão semântica de cada tópico foi assegurada através do uso da base de dados
léxica WordNet, que fornece significados e relações de palavras. Os metadados inicialmente obtidos
foram processados e utilizados para identificar as fontes primárias dos dados de notícias. A partir de Web
scraping, obtivemos dados brutos de artigos de media dos Estados Unidos da América disponíveis online,
de Janeiro de 2019 a Janeiro de 2021 (inclusive). Estes foram subsequentemente transformados, passando
por um processo de filtragem, limpeza e formatação, que é acompanhado de uma análise exploratória
dos dados e visualização de dados para efeitos de diagnóstico do processo completo. Os dados da rede
social foram extraídos através de um API próprio, especificando parâmetros para restringir resultados
aos Estados Unidos e ao intervalo de tempo anteriormente definido. Os dados devidamente tratados
foram posteriormente armazenados na base de dados desenhada e contruída para o propósito. A base
de dados foi concebida com quatro tabelas, que incluem os dados de notícias, os dados da rede social
Twitter, os metadados das pesquisas originais e metadados sobre as fontes das notícias, e feita através do
sistema de gestão de bases de dados PostgreSQL. Para otimizar o desempenho das pesquisas no nosso
conjunto de dados, procedemos à construção de índices para campos específicos, nomeadamente campos
de texto, que são o nosso interesse principal. Utilizando as funcionalidades disponíveis, foram construídas
representações vetoriais do texto das notícias, e a partir destas foi contruído um índice apropriado para
pesquisa em dados textuais, que reduziu o tempo de pesquisa por um fator nas dezenas de milhares
de vezes. Demonstramos ainda a pesquisa preliminar de dados longitudinais para efeitos de estudo da saliência de diferentes tópicos nos meios de comunicação. Foram aplicadas diferentes metodologias
estatísticas de análise de séries temporais para responder às questões a abordar. Através do uso de médias
móveis, os sinais foram clarificados para melhor visualização. Os testes de estacionaridade serviram
de diagnóstico para as transformações a aplicar aos dados de modo a garantir a validade de análises
posteriores. Com testes de causalidade de Granger, foi possível estabelecer relações entre séries temporais
com base no poder preditivo e assim compreender a dinâmica de interação de diferentes media. Com
recurso a técnicas de deteção de pontos de quebra, conseguimos defender a ideia de que existiram períodos
de mudança dos padrões observados nos media que coincidem com o despoletar da crise pandémica.
Assim, potenciada por uma pipeline customizada, robusta e transparente, conseguimos gerar um corpus de media, contendo milhões de documentos, que albergam milhares de milhões de tokens, correspondendo a um período de tempo superior a dois anos e múltiplas fontes de notícias e tópicos, permitindo
assim potenciar finalidades de mineração de texto (text mining) e outros propósitos analíticos, oferecendo uma metodologia computacional centrada nos dados digitais para investigar este tipo de questões
nas ciências sociais
Mapeamento magnético para navegação robótica em ambientes interiores
Localization has always been one of the fundamental problems in the field of robotic
navigation. The emergence of GPS came as a solution for localization systems in
outdoor environments. However, the accuracy of GPS is not always sufficient and
GPS based systems often fail and are not suited for indoor environments. Considering
this, today there is a variety of real time localization technologies. It is quite
common to see magnetic anomalies in indoor environments, which arise due to the
presence of ferromagnetic objects, such as concrete or steel infrastructures. In the
conventional ambient magnetic field based robotic navigation, which uses the direction
of the Earth’s magnetic field to determine orientation, these anomalies are
seen as undesirable. However, if the environment is rich in anomalies with sufficient
local variability, they can be mapped and used as features for localization purposes.
The work presented in this dissertation aims at demonstrating that it is possible to
combine the odometric measurements of a mobile robot with magnetic field measurements,
in order to effectively estimate the position of the robot in real time
in an indoor environment. For this purpose, it is necessary to map the navigation
space and develop a localization algorithm. First, the issues addressed to create
a magnetic map are presented, namely data acquisition, employed interpolation
methods and validation processes. Subsequently, the developed localization algorithm,
based on a particle filter, is depicted, as well as the respective experimental
validation tests.A localização sempre fui um dos problemas fundamentais a resolver no âmbito da
navegação robótica. O surgimento do GPS veio a servir de solução para bastantes
sistemas de localização em ambientes exteriores. No entanto, a exatidão do
GPS nem sempre é suficiente e os sistemas baseados em GPS falham frequentemente
e não são aplicáveis em ambientes interiores. À vista disso, hoje existe
uma variedade de tecnologias de localização em tempo real. É bastante comum
verificarem-se anomalias magnéticas em ambientes interiores, que provêm de objetos
ferromagnéticos, como infraestruturas de betão ou aço. Na navegação robótica
baseada na leitura do campo magnético convencional, que utiliza a direção
do campo magnético terrestre para determinar a orientação, estas anomalias são
vistas como indesejáveis. No entanto, se o ambiente for rico em anomalias com
variabilidade local suficiente, estas podem ser mapeadas e utilizadas como caraterísticas
para efeitos de localização. O trabalho apresentado nesta dissertação visa
a demonstrar que é possível conjugar as medidas odométricas de um robô móvel
com medições do campo magnético, para efetivamente localizar o robô em tempo
real num ambiente interior. Para esse efeito, é necessário mapear o espaço de
navegação e desenvolver um algoritmo de localização. Primeiramente, são apresentadas
as questões abordadas para criar um mapa magnético, nomeadamente
as aquisições de dados, os métodos de interpolação e os processos de validação.
Posteriormente, é retratado o algoritmo de localização desenvolvido, baseado num
filtro de partículas, assim como os respetivos testes experimentais de validação.Mestrado em Engenharia Eletrónica e Telecomunicaçõe
- …