3,454 research outputs found

    A TEORIA DA CONFORMIDADE SOCIAL E A INFLUÊNCIA DO PERFIL DE AUTORIDADE NA PERSUASÃO DO VOTO ELEITORAL

    Get PDF
    Studies and experiments in social psychology, according to the view of Acsh (1951) suggest that individuals tend to mimic the pattern of behavior in a given nucleus that has a majority reflecting on the same object. Even if they reason against the contrary, these people tend to change their opinion on the grounds of the group. This Milgram group (2009) also reflects on the authority profile present in them, in which it induces those surveyed to follow a profile of influence in the formation of their choices and answers. Nevertheless, according to a psychological political analysis, it points to an influence of groups that have in it actors who exercise a certain authority, such as religious leaders, in the figure of the church, who can persuade their followers by explaining this theory. This social conformism also reflects the desire not to show up or vulnerable the majority. Following this line of social psychology, this article will explore electoral elections through the influence of religious and local leaders in the persuasion of the electoral vote.Estudos e experimentos da psicologia social, segundo a visão de Acsh (1951) sugerem que os indivíduos tendem a imitar o padrão de comportamento em um dado núcleo que tenha uma maioria refletindo sobre o mesmo objeto. Mesmo raciocinando contrariamente, essas pessoas tendem a mudar a sua opinião em razão do grupo. A esse grupo Milgram (2009) também reflete sobre o perfil de autoridade neles presentes, na qual induz os pesquisados a seguir um perfil de influência na formação das suas escolhas e respostas. Não obstante, segundo uma análise política psicológica, aponta para uma influência de grupos que nele tenha atores que exercem uma certa autoridade, tal como os líderes religiosos, na figura da igreja, que podem persuadir os seus seguidores através da explicação desta teoria. Esse conformismo social também reflete a vontade de não se evidenciar em exposição ou vulnerável a maioria. Seguindo essa linha da psicologia social, este artigo irá explorar os pleitos eleitorais através da influência de líderes religiosos e locais na persuasão do voto eleitoral

    Reducing execution time in faaS cloud platforms

    Get PDF
    Dissertion to obtain the Master’s degree in Informatics and Computers EngineeringO aumento de popularidade do processamento e execução de código na Cloud levou ao despertar do interesse pela Functions Framework da Google, sendo o objetivo principal identificar pontos de possível melhoria na plataforma e a sua adaptação de forma a responder à necessidade identificada, tal como a obtenção e análise de resultados com o objetivo de validar a progressão realizada. Como necessidade da Functions Framework da Google Cloud Platform verificou-se que seria possível uma adaptação de forma a promover a utilização de serviços de cache, possibilitando assim o aproveitamente de processamentos prévios das funções para acelerar a resposta a pedidos futuros. Desta forma, foram implementados 3 mecanismos de caching distintos, In-Process, Out-of-Process e Network, respondendo cada um deles a diferentes necessidades e trazendo vantagens distintas entre si. Para a extração e análise de resultados foi utilizado o Apache JMeter, sendo esta uma aplicação open source para a realização de testes de carga e medidas de performance do sistema desenvolvido. O teste envolve a execução de uma função de geração de thumbnails a partir de uma imagem, estando a função em execução na framework. Para este caso uma das métricas definidas e analisadas será o número de pedidos atendidos por segundo até atingir o ponto de saturação. Finalmente, e a partir dos resultados foi possível verificar uma melhoria significativa dos tempos de resposta aos pedidos recorrendo aos mecanismos de caching. Para o caso de estudo, foi também possível compreender as diferenças no processamento de imagens com dimensão pequena, média e grande na ordem dos Kbs aos poucos Mbs.The increase in popularity of code processing and execution in the Cloud led to the awakening of interest in Google’s Functions Framework, with the main objective being to identify possible improvement points in the platform and its adaptation in order to respond to the identified need, also obtaining and analysing the results in order to validate the progress made. As a need for the Google Cloud Platform Functions Framework, it was found that an adaptation would be possible in order to promote the use of cache services, thus making it possible to take advantage of previous processing of the functions to accelerate the response to future requests. In this way, 3 different caching mechanisms were implemented, In-Process, Out-of-Process and Network, each responding to different needs and bringing different advantages. For the extraction and analysis of results, Apache JMeter was used, which is an open source application for implementing load tests and performance measures of the developed system. The test involves executing a function to generate thumbnails from an image, with the function running in the framework. For this case, one of the metrics defined and analyzed will be the number of requests served per second until reaching the saturation point. Finally, and based on the results, it was possible to verify a significant improvement in the response times to requests using caching mechanisms. For the case study, it was also possible to understand the differences in the processing of images with small, medium and large dimensions in the order of Kbs to a few Mbs.N/

    Portugal as an European destination reference in senior tourism

    Get PDF
    O presente projeto consiste na determinação estratégica relativa ao desenvolvimento de Portugal cujo objectivo central é determinar de que forma Portugal pode vir a ser um player de referencia no contexto de Turismo Sénior, um segmento de mercado que representa já, quer em volume quer em valor o mais atrativo segmento de turistas. À medida que a população mundial envelhece, o segmento sénior é considerado o segmento de consumo mais valioso, um fenómeno que se verifica não só na indústria do turismo, mas é sim comum a todas as indústrias. Este segmento possui atualmente tempo e capital disponível para a prática de turismo. Todos os dias 10,000 novos cidadãos Americanos entram na idade da reforma. Para além disso, aqueles considerados “Baby- Boomers” e que detêm hoje cerca de 60% de toda a fortuna mundial, serão os próximos “seniores” e irão dominar a indústria mundial do Turismo exigindo uma oferta cada vez mais adaptada às suas necessidades. Posto isto, é urgente o desenvolvimento de uma estratégia direcionada não só aos membros da atual população sénior mas também a outras gerações, nomeadamente os “Baby-Boomers” e a Generation X que irão representar a curto/médio prazo o segmento “sénior” da população mundial. De forma a fazê-lo de uma forma eficaz, é crucial ter em conta a necessidade de criar uma ligação emocional com estes grupos de consumidores, ao mesmo tempo que a oferta turística disponível deverá ser capaz de se desenvolver e adaptar de forma contínua à evolução das suas necessidades e comportamentos turísticos.The presented project consists in a strategic development of Portugal as a Touristic Destination witch major goal is to understand how can Portugal become a major Player in Senior Tourism, as segment of the population that already represents both in volume and value the most attractive travel segment. With the increasing ageing of the world’s population, seniors are pointed out to become the most valuable consumer segment. These have increasing available time to travel and they have the disposable income to spend in travel experiences as a primary motivation. Every day in the USA 10,000 people enter in the retirement age, a trend that is expected to prevail until 2020. Moreover, 60% of the world’s fortune lies in the hands of baby-boomers, which will soon become the next seniors, dominating the World tourism and demanding hand-crafted experiences as never before. A Destination that is able to understand their needs and develop customized experiences to fit their demand will surely hold a valuable competitive advantage. This being said, there was the needed to develop a strategy targeted not only to those who may be already considered “seniors”, but also to the other generations namely Baby- Boomers and members of Generation X that will become “seniors” in a 10 to 20 year period. In order to do it effectively, this strategy must take into account the need to create an emotional connection with those consumers, while our touristic offer must be developed and continuously adapted to their evolution in terms of needs and travel behaviours

    THE DETERMINANTS OF MIGRATION IN BRAZIL

    Get PDF
    In the present study, the neoclassic human capital model was used as the theoretical foundation for the analyses of the determinants of migration in Brazil. The empirical studies were carried on with the application of a multiple regression macro model based on the gravitational model and on the Poisson distribution. In the empirical model, the number of migrants between Brazilian mesoregions was the response variable. Many socioeconomic and criminal aspects of the origin and the destiny of the migrants were used as explanatory variables. The distance between these regions and many geographical dummies were also used as independent variables. This paper contains seven sections. The first one introduces some concepts that are related to the determinants of migration. The next section briefly shows some aspects of the Brazilian regional diversity. After this, some quantitative data about the process of migration is presented. The subsequent section discusses the theoretical models of the analysis, which is the human capital model, and presents some similar studies done by other authors. Then, is showed the methodology and the macro model of migration that were used in the empirical analysis. Finally, the main empirical results are shown and the final discussions and conclusions are presented.

    Single-step laser-induced graphene on paper as a platform for monitoring pH within smart bandages for wound application

    Get PDF
    Chronic wounds and wound infection occurrences have become major public health concerns over the last years, affecting millions of people and costing billions to national healthcare systems. Many of these incidents are avoidable through proper monitoring of the wound health status. The boom of wearable sensors for in situ monitoring of relevant biomarkers like temperature, humidity, glucose concentration, and other analytes have shown to be viable pathways to continuous injury monitoring for chronic status and infection prevention. Among these analytes, pH has been a much-neglected parameter despite having a strong correlation with the wound healing status. Acute wounds initially present acidic pH levels (≈4), while chronic wounds oscillate indefinitely at higher pH levels (≈8). The discovery of laser-induced graphene (LIG) gave rise to the development of lowcost, flexible electrodes for the fabrication of biosensors on a multitude of recyclable and sustainable substrates, namely on paper. This dissertation project contributes to the research and optimization of LIG on paper as a medium for the fabrication of environmentally friendly, low-cost, and biocompatible pH sensors for future implementation within smart bandages and medical wound dressings. LIG on paper fabrication parameters were optimized for better electrical performance, having reached a sheet resistance value of 14.0 ± 1.50 Ω sq−1. LIG-based pH sensors were conceived based on a voltammetric approach by modifying the working electrode with riboflavin (vitamin B2) and monitoring its electrochemical response to different pH environments. The proposed device showed Super-Nernstian sensitivity of 78.2 ± 3.37 mV pH−1 over a 2 to 8, physiologically relevant, pH range, making it suitable for the application within a wound environment.Feridas crónicas e as ocorrências de infeção em feridas são atualmente grandes preocupações de saúde pública, afetando milhões de pessoas e custando milhares de milhões aos sistemas nacionais de saúde. Muitos destes incidentes são evitáveis através de uma monitorização adequada do estado de regeneração dos ferimentos. A expansão dos sensores wearable para monitorização localizada de biomarcadores relevantes como temperatura, humidade, concentração de glucose, e outros analitos, tem demonstrado ser uma possível via de controlo contínuo do estado destas lesões, para prevenção da evolução para situação crónica e do surgimento de infeções. Entre estes analitos, o pH tem sido um parâmetro muito negligenciado, apesar de ter uma forte correlação com a fase de cicatrização da ferida. As feridas agudas apresentam inicialmente níveis de pH ácidos (≈4), enquanto que as feridas crónicas oscilam indefinidamente entre níveis de pH mais elevados (≈8). A descoberta do grafeno induzido por laser (LIG) deu origem ao desenvolvimento de elétrodos flexíveis e de baixo custo para o fabrico de biossensores, tendo por base diversos substratos recicláveis e sustentáveis, nomeadamente o papel. Este projeto de dissertação contribui para a investigação e otimização da produção de LIG em papel como meio para o fabrico de sensores de pH ecológicos, de baixo custo e biocompatíveis. Isto visando a implementação futura em pensos inteligentes e curativos médicos. Foi realizada a otimização dos parâmetros para fabricação do LIG em papel, tendo atingido valores de resistência em folha de 14.0 ± 1.50 Ω sq−1. Os sensores de pH baseados em LIG foram concebidos com base numa abordagem voltamétrica, modificando o elétrodo de trabalho com riboflavina (vitamina B2) e monitorizando a sua resposta eletroquímica a ambientes com diferentes valores de pH. O dispositivo proposto mostrou sensibilidade Super-Nernstiana de 78.2 ± 3.37 mV pH−1 ao longo de uma janela de pH fisiologicamente relevante de 2 a 8, tornando-o adequado para a aplicação em ferimentos

    Targeted therapies in breast cancer

    Get PDF
    Trabalho Final de Mestrado Integrado, Ciências Farmacêuticas, Universidade de Lisboa, Faculdade de Farmácia, 2017Breast cancer is a disease responsible for millions of deaths annually. It’s a very heterogenous disease due to the different mutations on each case. Breast cancer doesn’t have existing cure, and it’s currently approached through therapeutic schemes involving radiotherapy, chemotherapy and surgical procedure. Both radiotherapy as chemotherapy act adjunctly allowing further removal through lumpectomy or mastectomy. Current chemotherapy can’t distinguish between healthy and malignant cells, causing patient suffering through adverse effects. So, there’s a demand to find out novel therapies more efficient e selective. However, many researchers claim to found novel selective approaches, that ultimately aren’t. Potentially new drugs on research will be analysed, and an efficient and viable drug design is proposed to cure breast cancer.O cancro da mama é uma doença responsável por milhões de mortes anualmente. É uma doença muito heterogenia devido às diferentes mutações existentes em cada caso. O cancro da mama não tem uma cura existente, ele é tratado através de uma série de esquemas terapêuticos que envolve radioterapia, quimioterapia e cirurgia. Tanto a radio como a quimioterapia são unicamente adjuvantes de modo a permitir a remoção do cancro através de uma lumpectomia ou mastectomia. A quimioterapia corrente usada não consegue distinguir células malignas de células saudáveis e isso remete para reações adversas sentidas pelo doente que tornam a terapia dolorosa. Existe, portanto, uma demanda de novas opções terapêuticas mais eficazes e seletivas. Contundo, muito investigadores referem descobrir novas terapêuticas seletivas que acabam por não o ser. Faz-se uma crítica a potenciais novos fármacos em investigação, mas também se propõe a síntese de fármacos mais eficazes e viáveis na cura do cancro da mama

    The determinants of migration in Brazil

    Get PDF
    In the present study, the neoclassic human capital model was used as the theoretical foundation for the analyses of the determinants of migration in Brazil. The empirical studies were carried on with the application of a multiple regression macro model based on the gravitational model and on the Poisson distribution. In the empirical model, the number of migrants between Brazilian mesoregions was the response variable. Many socioeconomic and criminal aspects of the origin and the destiny of the migrants were used as explanatory variables. The distance between these regions and many geographical dummies were also used as independent variables. This paper contains seven sections. The first one introduces some concepts that are related to the determinants of migration. The next section briefly shows some aspects of the Brazilian regional diversity. After this, some quantitative data about the process of migration is presented. The subsequent section discusses the theoretical models of the analysis, which is the human capital model, and presents some similar studies done by other authors. Then, is showed the methodology and the macro model of migration that were used in the empirical analysis. Finally, the main empirical results are shown and the final discussions and conclusions are presented.

    FELICIDADE NO TRABALHO - ENTREVISTA COM PARTICIPANTE: MAX

    Get PDF
    This scientific work approaches the theme about happiness in the organizational environment, from the perspective of positive psychology. To conduct the research, a qualitative interview was conducted with an employee of a Confederation, in which the structures that induce happiness in the corporate environment were explored. To preserve the identity of employee, a fictitious name called Maxí was attributed.Este trabalho científico aborda o tema acerca da felicidade no ambiente organizacional, na perspectiva da psicologia positiva. Para realização da pesquisa foi realizada entrevista qualitativa junto a um funcionário de uma Confederação, no qual foram exploradas as estruturas que induzem a felicidade no meio corporativo. Para preservar a identidade do colaborador, foi denominado um nome fictício chamado de Max.&nbsp

    Software for a Service Robot

    Get PDF
    Service robots are becoming more commonplace every year due to advances in artificial intelligence, substituting humans in increasingly more complex tasks. By having an autonomous and competent service robot performing routinely tasks instead of its human owners, their productivity increases. The search for better service robots has led to the creation of competitions where such robots are tested and the state of the art technology is pushed further. Socialab acquired a Turtlebot2 robot to serve people around the university campus and one day participate in such competitions. With hopes of achieving these goals, the laboratory has proposed a variety of projects over the years, each adding new layers offunctionality to the robot. With each studentthathas tackled their respective project,thedeveloped softwarehasbeencontinuously stacking. However, each completed project has remained separate from each other andhasn’t been used ever since. Hence,the developed software is being wasted. Therefore, it is imperative to integrate all the available software into the robot. Yet, as new projects are proposed, the problem of scattered software can reoccur after the integration of the currently available ones. Furthermore, with more functionality that is developed, the harder and longer it takes to complete their integration. To preventthis entirely, itis necessary to create structural software that eases the development of new functionality as well as its integration with the current software. To achieve this, a class was developed which is responsible for controlling the execution of all processes running in the robot, of which the different software depends on. Additionally, research was done on multiple competitions to identify the most commonly required functionality traits, which we refer to as modules. Afterwards, an implementation of each of these modules was developed. Because of their universality, their implementation allows future software that requires any of the modules to simply import them, rather than having to re-implement them. In line with good software quality practices, if any of the modules needs an upgrade, this upgrade simply has to be performed on the respective module, instead of upgrading every adjacent software that uses this module. This was the first goal of this thesis. After creating a solid foundation for robot software development, the focus shifted towards the creation of new functionality. The different tasks were obtained from the previous research of various robotic competitions. The idea is that if the robot can perform such tasks then it can participate in the competitions, while the same functionalities can be used around campus. The list aimed to be as long as possible with the goal of leaving the robot with as much functionality as possible while taking into consideration the time restraints of the development of this thesis. Seven tasks were selected. The implementation of each task is explained in detail. As each task was developed, the implemented steps were turned into modules, therefore respecting the initial goal of flexible and reusable software. Because of this, as more tasks were developed the following task’s implementation was increasingly simpler as some of the requirements were already available from the development of their predecessors. The tasks required knowledge from different areas of artificial intelligence. This lead to the broadening of my knowledge rather than specialization in a single area. With this work, we show how distinct robotic tasks were implemented. Due to the varied nature ofthe tasks, we show how to tackle a multitude of different problems that appear in the area of artificial intelligence. Additionally, the work presents an approach to create a solid foundation for the development and integration of increasingly more software. The tasks are benchmarked, meaning future updates ofthe tasks can be performed and proved superior through the comparison of their results.Os robôs de serviço são cada vez mais comuns devido aos avanços constantes na área da inteligência artificial, substituindo os humanos em tarefas cada vez mais complexas. Ao ter um robô autónomo e competente desempenhando tarefas diárias em vez do seu dono humano, a produtividade destes consequentemente aumenta. A pesquisa por melhores robôs de serviço levou à criação de competições robóticas onde tais tipos de robôs são avaliados e o estado da arte é forçado a avançar. Com o objetivo de possuir um robô de serviço que sirva as pessoas na universidade, bem como um dia participar em tais competições, o Socialab adquiriu um robô Turtlebot2. O laboratório tem proposto vários projetos ao longo dos anos, cada um adicionando novos níveis de funcionalidade ao robô. Com cada estudante que tem vindo a realizar o respetivo projeto, o software que foi desenvolvido tem estado continuamente a aumentar. Adicionalmente, cada projeto completado tem permanecido separado dos restantes e não tem sido utilizado desde o momento da sua criação. Por esta razão, o software desenvolvido está a ser desperdiçado. Portanto, é imperativo integrar todo o software disponível no robô. No entanto, como novos projetos serão desenvolvidos, este problema de projetos disjuntos poderá voltar a ocorrer após a integração dos projetos atuais. Ademais, com o aumento da funcionalidade que é desenvolvida, mais dificil e demorado será a sua integração. De forma a evitar este problema na sua totalidade, é necessário criar software estrutural que facilite o desenvolvimento de novas funcionalidades, bem como a sua integração com o software já existente. De forma a atingir este objetivo, foi desenvolvida uma classe cujo propósito é controlar a execução de todos os processos em execução no robô. Adicionalmente, foi efetuada uma pesquisa sobre diversas competições robóticas com o objetivo de identificar os tipos de funcionalidades mais comuns, que referimos como módulos. Depois foi realizada uma implementação de cada um destes módulos. Devido à universalidade destes módulos, a sua implementação permite que software futuro, que provavelmente depende de alguns dos módulos, apenas os tenha que importar, em contraste com ter que os re-implementar. Adicionalmente, emlinha comas práticas dequalidadede software, se cadaumdosmódulos precisa de uma atualização, esta apenas tem de ser realizada nos respetivos módulos, ao invés de ter de atualizar cada software adjacente que teve de o implementar. Este foi o primeiro objetivo da tese. Após a criação de uma fundação sólida para o desenvolvimento de software para robô, o foco transferiu-se para a criação de nova funcionalidade. Uma lista de tarefas robóticas foi obtida da pesquisa anterior sobre várias competições robóticas. A ideia é que se o robô é capaz de realizar tais tarefas então não só pode participar nas competições que as requerem, como também tem utilidade que pode ser utilizada pelas pessoas na universidade. A lista visava ser o mais extensa possível, tendo em conta as restrições temporais de desenvolvimento da tese, de modo a deixar o robô com o máximo de funcionalidades possível. Desta forma, sete tarefas foram escolhidas. A implementação de cada uma das tarefas é explicada em detalhe no seu capítulo respetivo. À medida que cada tarefa foi desenvolvida, os seus componentes individuais foram extraídos para novos módulos, passiveis de serem utilizados por outras funcionalidades, respeitando assim, o objetivo inicial de criar software flexível e reutilizável. Este fator tornou a criação das tarefas seguintes cada vez mais simples devido a estas dependerem de funcionalidades já implementadas nas anteriores. A implementação das tarefas exigiu conhecimento das diferentes áreas da inteligência artificial. Este facto levou à ampliação do meu conhecimento ao invés da especialização numa área, algo que é frequente na realização de teses. A realização deste trabalho demonstra como as distintas tarefas robóticas foram implementadas. Devido à natureza variada das tarefas, é demonstrado como enfrentar um conjunto diverso de problemas que podem aparecer na área da inteligência artificial. Adicionalmente, este trabalho apresenta uma abordagem para a criação de uma fundação sólida para o desenvolvimento e integração de novo software. Por último, as tarefas estão aferidas contra o estado da arte, significando que atualizações futuras às tarefas podem ser realizadas e provadas superiores através da comparação dos seus resultados
    corecore