105 research outputs found

    Optimización de arquitecturas distribuidas para el procesado de datos masivos

    Full text link
    Tesis por compendio[ES] La utilización de sistemas para el tratamiento eficiente de grandes volúmenes de información ha crecido en popularidad durante los últimos años. Esto conlleva el desarrollo de nuevas tecnologías, métodos y algoritmos, que permitan un uso eficiente de las infraestructuras. El tratamiento de grandes volúmenes de información no está exento de numerosos problemas y retos, algunos de los cuales se tratarán de mejorar. Dentro de las posibilidades actuales debemos tener en cuenta la evolución que han tenido los sistemas durante los últimos años y las oportunidades de mejora que existan en cada uno de ellos. El primer sistema de estudio, el Grid, constituye una aproximación inicial de procesamiento masivo y representa uno de los primeros sistemas distribuidos de tratamiento de grandes conjuntos de datos. Participando en la modernización de uno de los mecanismos de acceso a los datos se facilita la mejora de los tratamientos que se realizan en la genómica actual. Los estudios que se presentan están centrados en la transformada de Burrows-Wheeler, que ya es conocida en el análisis genómico por su capacidad para mejorar los tiempos en el alineamiento de cadenas cortas de polinucleótidos. Esta mejora en los tiempos, se perfecciona mediante la reducción de los accesos remotos con la utilización de un sistema de caché intermedia que optimiza su ejecución en un sistema Grid ya consolidado. Esta caché se implementa como complemento a la librería de acceso estándar GFAL utilizada en la infraestructura de IberGrid. En un segundo paso se plantea el tratamiento de los datos en arquitecturas de Big Data. Las mejoras se realizan tanto en la arquitectura Lambda como Kappa mediante la búsqueda de métodos para tratar grandes volúmenes de información multimedia. Mientras que en la arquitectura Lambda se utiliza Apache Hadoop como tecnología para este tratamiento, en la arquitectura Kappa se utiliza Apache Storm como sistema de computación distribuido en tiempo real. En ambas arquitecturas se amplía el ámbito de utilización y se optimiza la ejecución mediante la aplicación de algoritmos que mejoran los problemas en cada una de las tecnologías. El problema del volumen de datos es el centro de un último escalón, por el que se permite mejorar la arquitectura de microservicios. Teniendo en cuenta el número total de nodos que se ejecutan en sistemas de procesamiento tenemos una aproximación de las magnitudes que podemos obtener para el tratamiento de grandes volúmenes. De esta forma, la capacidad de los sistemas para aumentar o disminuir su tamaño permite un gobierno óptimo. Proponiendo un sistema bioinspirado se aporta un método de autoescalado dinámico y distribuido que mejora el comportamiento de los métodos comúnmente utilizados frente a las circunstancias cambiantes no predecibles. Las tres magnitudes clave del Big Data, también conocidas como V's, están representadas y mejoradas: velocidad, enriqueciendo los sistemas de acceso de datos por medio de una reducción de los tiempos de tratamiento de las búsquedas en los sistemas Grid bioinformáticos; variedad, utilizando sistemas multimedia menos frecuentes que los basados en datos tabulares; y por último, volumen, incrementando las capacidades de autoescalado mediante el aprovechamiento de contenedores software y algoritmos bioinspirados.[CA] La utilització de sistemes per al tractament eficient de grans volums d'informació ha crescut en popularitat durant els últims anys. Açò comporta el desenvolupament de noves tecnologies, mètodes i algoritmes, que aconsellen l'ús eficient de les infraestructures. El tractament de grans volums d'informació no està exempt de nombrosos problemes i reptes, alguns dels quals es tractaran de millorar. Dins de les possibilitats actuals hem de tindre en compte l'evolució que han tingut els sistemes durant els últims anys i les ocasions de millora que existisquen en cada un d'ells. El primer sistema d'estudi, el Grid, constituïx una aproximació inicial de processament massiu i representa un dels primers sistemes de tractament distribuït de grans conjunts de dades. Participant en la modernització d'un dels mecanismes d'accés a les dades es facilita la millora dels tractaments que es realitzen en la genòmica actual. Els estudis que es presenten estan centrats en la transformada de Burrows-Wheeler, que ja és coneguda en l'anàlisi genòmica per la seua capacitat per a millorar els temps en l'alineament de cadenes curtes de polinucleòtids. Esta millora en els temps, es perfecciona per mitjà de la reducció dels accessos remots amb la utilització d'un sistema de memòria cau intermèdia que optimitza la seua execució en un sistema Grid ja consolidat. Esta caché s'implementa com a complement a la llibreria d'accés estàndard GFAL utilitzada en la infraestructura d'IberGrid. En un segon pas es planteja el tractament de les dades en arquitectures de Big Data. Les millores es realitzen tant en l'arquitectura Lambda com a Kappa per mitjà de la busca de mètodes per a tractar grans volums d'informació multimèdia. Mentre que en l'arquitectura Lambda s'utilitza Apache Hadoop com a tecnologia per a este tractament, en l'arquitectura Kappa s'utilitza Apache Storm com a sistema de computació distribuït en temps real. En ambdós arquitectures s'àmplia l'àmbit d'utilització i s'optimitza l'execució per mitjà de l'aplicació d'algoritmes que milloren els problemes en cada una de les tecnologies. El problema del volum de dades és el centre d'un últim escaló, pel qual es permet millorar l'arquitectura de microserveis. Tenint en compte el nombre total de nodes que s'executen en sistemes de processament tenim una aproximació de les magnituds que podem obtindre per al tractaments de grans volums. D'aquesta manera la capacitat dels sistemes per a augmentar o disminuir la seua dimensió permet un govern òptim. Proposant un sistema bioinspirat s'aporta un mètode d'autoescalat dinàmic i distribuït que millora el comportament dels mètodes comunment utilitzats enfront de les circumstàncies canviants no predictibles. Les tres magnituds clau del Big Data, també conegudes com V's, es troben representades i millorades: velocitat, enriquint els sistemes d'accés de dades per mitjà d'una reducció dels temps de tractament de les busques en els sistemes Grid bioinformàtics; varietat, utilitzant sistemes multimèdia menys freqüents que els basats en dades tabulars; i finalment, volum, incrementant les capacitats d'autoescalat per mitjà de l'aprofitament de contenidors i algoritmes bioinspirats.[EN] The use of systems for the efficient treatment of large data volumes has grown in popularity during the last few years. This has led to the development of new technologies, methods and algorithms to efficiently use of infrastructures. The Big Data treatment is not exempt from numerous problems and challenges, some of which will be attempted to improve. Within the existing possibilities, we must take into account the evolution that systems have had during the last years and the improvement that exists in each one. The first system of study, the Grid, constitutes an initial approach of massive distributed processing and represents one of the first treatment systems of big data sets. By researching in the modernization of the data access mechanisms, the advance of the treatments carried out in current genomics is facilitated. The studies presented are centred on the Burrows-Wheeler Transform, which is already known in genomic analysis for its ability to improve alignment times of short polynucleotids chains. This time, the update is enhanced by reducing remote accesses by using an intermediate cache system that optimizes its execution in an already consolidated Grid system. This cache is implemented as a GFAL standard file access library complement used in IberGrid infrastructure. In a second step, data processing in Big Data architectures is considered. Improvements are made in both the Lambda and Kappa architectures searching for methods to process large volumes of multimedia information. For the Lambda architecture, Apache Hadoop is used as the main processing technology, while for the Kappa architecture, Apache Storm is used as a real time distributed computing system. In both architectures the use scope is extended and the execution is optimized applying algorithms that improve problems for each technology. The last step is focused on the data volume problem, which allows the improvement of the microservices architecture. The total number of nodes running in a processing system provides a measure for the capacity of processing large data volumes. This way, the ability to increase and decrease capacity allows optimal governance. By proposing a bio-inspired system, a dynamic and distributed self-scaling method is provided improving common methods when facing unpredictable workloads. The three key magnitudes of Big Data, also known as V's, will be represented and improved: speed, enriching data access systems by reducing search processing times in bioinformatic Grid systems; variety, using multimedia data less used than tabular data; and finally, volume, increasing self-scaling capabilities using software containers and bio-inspired algorithms.Herrera Hernández, J. (2020). Optimización de arquitecturas distribuidas para el procesado de datos masivos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/149374TESISCompendi

    Analysing formal visual elements of corporate logotypes using computational aesthetics

    Get PDF
    The marketing mix contains a significant proportion of elements that derive their appeal and effectiveness from visuals. This thesis proposes the application of quantitative measures from the literature on computational aesthetics to evaluate and study the formal characteristics of corporate visuals in the form of logotypes (logos). It is argued that the proposed approach has a number of advantages in terms of efficiency, consistency and accuracy over existing approaches in marketing that rely on subjective assessments. The proposed approach is grounded on a critical review of a diverse literature that encompasses Marketing, Art History and Philosophy, and, Visual Science and Psychology. The computational aesthetic measures are framed within the construct of Henderson and Cote (1998) and van der Lans et al. (2009), in order to analyse brand logo design elements along with their effect on consumers. The thesis is underpinned by three empirical studies. The first study uses an extensive set of 107 computational aesthetic measures to quantify the design elements in a sample of 215 professionally designed logotypes drawn from the World Intellectual Property Organization Global Brand Database. The study uses for the first time an array of different measures for evaluating design elements related to colour that include hue, saturation, and colourfulness. The metrics capture both global design features of logos along with features related to visual segments. The metrics are linked to logo elaborateness, naturalness and harmony, using the theoretical framework of Henderson and Cote (1998). The results show that measures have a very diverse behaviour across metrics and typically follow highly non-normal distributions. Factor analysis indicates that the categorisation of the measurements in three factors is a reasonable representation of the data with some correspondence to the dimensions of elaborateness, naturalness and harmony. The second study demonstrates that the proposed computational aesthetic measures can be used to approximate the subjective evaluation of logo designs provided by experts.   Specifically, eight design elements for the sample of 215 logos, corresponding to harmony, elaborateness and naturalness, are evaluated by three experts. The results show for the first time that computational aesthetic measures related to colour along with other measures are useful in approximating subjective expert reviews. Unlike previous literature, this research combines both standard statistical methods for modelling and inference, along with more recent techniques from machine learning. Linear regression analysis suggests that the objective computational measures contain useful information for predicting proxy subjective expert reviews for logos. Model accuracy is substantially improved using neural network regression analysis based on Radial Basis Functions. The last study examines the role of consumer personality traits as moderators of the effect of perceived logo dynamism on consumer attitude towards the logo. One hundred and twenty-two participants were asked to evaluate elements of logo design (visual appearance, complexity, informativeness, familiarity, novelty, dynamism and engagement), their attitude towards the brand and their personality traits (sensation seeking, risk taking propensity, nostalgia and need for cognition). The estimates extracted were shown to vary significantly in terms of central tendency and dispersion and mostly follow non-normal distributions. Following Cian et al. (2014) the moderated mediator model by Preacher and Hayes (2008) is applied to test the suitability of personality traits as moderators of the effect of logo dynamism on attitudes towards the logo. The personality traits used as moderators are Need for Cognition and Risk-Taking Propensity, whereas Engagement was used as a Mediator. This is the first study to employ personality traits as moderators in such a study using this methodology. The results offer limited support of the role of personality traits as moderators in this relationship. Therefore, the study strengthens the case for the development of objective measures of visual characteristics. The working hypothesis in the thesis is that, with the help of computational aesthetic measures, marketing visuals such as corporate logos, can afford themselves to a consistent quantitative approach which can prove to be important for researchers and practitioners alike. By being able to group and measure the aesthetic differences, similarities and emerging patterns, access is gained to a new family of metrics, which can be applied to any type of logo across time, product, industry or culture

    The role of modular graphic identity in rebranding an educational programme

    Get PDF
    Trabalho de projetoEste trabalho de projeto propôs-se a lidar com o rebranding do programa Challenge Based Innovation (CBI). Este é um programa educacional para estudantes universitários, onde equipas de estudantes criam projetos inovadores de design. Estes ocorrem em colaboração entre universidades e a Organização Europeia de Investigação Nuclear (CERN), na Suíça. O CBI é um programa especial, não apenas pelo seu objetivo de criar inovação social disruptiva num dos principais centros de investigação do mundo, mas também porque cada universidade que participa no CBI cria a sua versão do programa. Portanto, este não é um programa fechado, mas sim aberto a diferentes currículos e períodos de tempo. Apesar do impacto sobre os participantes e do potencial do programa, este não é tão reconhecido internacionalmente quanto poderia ser, especialmente pela falta de identidade gráfica e consistência da comunicação. Desta forma, este projeto visa fazer o rebranding e redesign da identidade gráfica do CBI, a fim de comunicar melhor os seus objetivos, os resultados dos projetos e o processo de co-criação do programa. Além disso, o objetivo é aumentar a visibilidade do programa no CERN, nas universidades participantes e na comunidade de ensino superior. O projeto envolveu uma longa fase de investigação para compreender o problema e as perspectivas dos participantes no programa. Posteriormente, a componente prática do projeto foi desenvolvido, considerando as necessidades dos participantes do CBI. O resultado é uma marca modular distinta, que representa a abertura do programa e sua conexão com a tecnologia e a sociedade.This report of practice proposed to deal with the development of the rebranding of Challenge Based Innovation (CBI). This is an educational program for university students, where student teams create innovative design projects. These take place in collaboration between universities and the European Organization for Nuclear Research (CERN), in Switzerland. CBI is a special program, not only for its motto of disruptive societal innovation in one of the world's leading research centers, but also because each university participating in CBI creates its version of the program. Thus, this is not a closed program, but open to different curricula, time periods and student backgrounds. Despite the impact on the participants and potential of the program, it is not as internationally recognized as it could be, especially for the lack of graphic identity and consistency of communication. With that in mind, this project aims to rebrand and redesign the graphic identity of CBI in order to better communicate its goals, project outcomes and the process of co-creating such a programme. Also, the goal is to increase the visibility of the programme inside CERN, inside the participating universities and among the higher education community. The project involved a long research phase to understand the problem and the perspectives of the programme’s stakeholders. Afterwards, the practical component of the project was developed, keeping in mind the needs and struggles of CBI’s participants. The result is a distinct modular brand, that represents the openness of the programme and its connection with technology and society

    A framework for informing consumers on the ecological impact of products at point of sale

    Get PDF
    The use of intelligent information technologies has the means to provide ecological information just-in-time, thus alleviating consumers' cognitive burden at the time of purchase. We propose a computational framework for supporting consumer awareness of the ecological impact of products they consider purchasing at point of sale. The proposed framework permits consulting multiple information sources through diverse access interfaces, combined with a recommendation engine to score product greenness. We evaluate our approach in terms of usability, performance, and user-influence tests through two conceptual prototypes: an online store and an augmented reality interface to use at physical stores. Our findings suggest that providing ecological information at the time of purchase is able to direct consumers' preference towards products that are ecological and away from products that are not; consumers also express willingness to pay slightly more for ecological products. The experimental results obtained with the interface prototypes are statistically significant

    Socially situated consumer cognition: from oral kinematics to grounded marketing

    Get PDF
    Sensory Marketing has long been uncovering surprising relations between the senses and mental experience, that is, how sensorial inputs may influence information-processing. Grounded Cognition proposes, however, that sensory but also motor experiences play an instrumental role in cognitive functioning. To further explore and expand knowledge on how muscular contractions and motor simulations cue judgments, we focused on the oral-facial muscular apparatus and examined the recently discovered in-out effect and its potential applications to marketing. Departing from the biomechanical overlap between the alimentation and oral communication functionalities of the mouth, this effect documents a stable preference for words whose consonantal articulation simulates ingestion movements, as opposite to words mimicking expectoration movements. Eight articles featuring 14 experiments (NTotal=4879) successfully (a) established the universality of the effect, replicating it in different languages and writing systems; (b) examined the role of fluency in this motor-to-affect link, revealing the lack of support for a mere fluency explanation and the need to test alternative mechanisms; and, (c) tested potential applications and boundary conditions that could potentially threat the effectiveness of using the in-out preference in marketing contexts. Our main contributions may be drawn from the innovative replications, rigorous tests to the alternative accounts and from the inputs provided for future brand name design. Additionally, we believe that our work is relevant to endorse a promising, yet still unresearched, approach. Acknowledging that cognition may rely so deeply in motor simulations and body movements, calls for a critical shift, urging researchers and managers to move towards Grounded Marketing.O Marketing Sensorial tem vindo a desvendar relações surpreendentes entre experiências sensoriais e mentais, revelando como os estímulos sensoriais influenciam o processamento de informação. A Cognição Situada propõe, contudo, que o funcionamento cognitivo depende do sistema sensorial mas também do motor. Para incrementar o conhecimento sobre a forma como as contrações musculares e simulações motoras influenciam os julgamentos, selecionámos o aparelho muscular orofacial para examinar o recém-descoberto efeito In-Out e as suas potenciais aplicações ao marketing. Reconhecendo a sobreposição muscular entre as funções de alimentação e comunicação, o efeito in-out demonstra que palavras cuja articulação simula movimentos de ingestão, são preferidas a palavras que mimetizam o movimento oposto – expectoração. Os oito artigos apresentados neste trabalho e as 14 experiências que os compõem (NTotal=4879) (a) estabelecem a universalidade do efeito, através da sua replicação em novas línguas e sistemas de escrita; (b) examinam o papel da fluência nesta relação motoro-afetiva, concluindo que não existe evidência suficiente para a reconhecer como a única explicação; e (c) testam potenciais aplicações e condições-limite que possam ameaçar a capitalização desta preferência no marketing. Além do carácter inovador das replicações, do rigor dos exames às explicações alternativas e das sugestões para o design de nomes de marcas, acreditamos que o principal contributo deste trabalho é apoiar uma abordagem promissora, mas ainda pouco explorada. O reconhecimento da centralidade que simulações motoras e movimentos corporais podem ter na cognição, motiva a adoção de uma nova perspectiva, que impele investigadores e gestores a avançar na direção do Marketing Situado

    Datation automatique de photographies à partir de caractéristiques textuelles et visuelles

    Get PDF
    In this thesis, we address the problem of automatic dating of old photographs using attributes from imageand surrounding text.Over the last centuries, photography and metadata have undergone many mutations. In an informativeand contextualizing vocation, we report our observations regarding these technological advances. Thisinformation helps to understand the evolution of photographs dating methods that have historically beenstudied manually before becoming recently automatic.We focused in a fundamental concept of dating : the ordinal nature of time. To this extent we studied ordinalclassification methods and associated evaluation measures.In this thesis, we have built a large collection of web pages combining old photographs and text content. Thiscollection aims at allowing both training and evaluation of the proposed models. This represents an advancein the field of photographs dating because no comparable data set previously existed.We propose an original model that we have developed and evaluated on image databases to date thephotographs with their visual content. The major feature of our approach is the exploitation of the ordinalstructure of time. This is to our knowledge the first use of this intrinsic characteristic of photographs dating.Moreover, we explore the dating of photographs by the use of the surrounding text data. In our approach,we mimic the human behavior used in the context of photographs dating. Thus we propose for the first timean automatic method for the dating of photographs by the use of the textual environment.Dans cette thèse, la problématique que nous traitons est celle de la datation automatique de photographiesanciennes à partir d'attributs issus de l'image et du texte qui l'entoure.Au cours de ces derniers siècles, la photographie et les métadonnées ont subi de nombreuses mutations. Dans une vocation informative et contextualisante, nous reportons nos observations au regard de ces avancées technologiques qui permettent de comprendre l'évolution des méthodes de datation de photographies, historiquement manuelles et récemment devenues automatiques.Nous nous sommes intéressés à une notion fondamentale et intrinsèque de la datation : le caractère ordinal du temps. Nous avons donc étudié les méthodes de classification ordinale et les mesures d'évaluation associées.Pour cette thèse, nous avons construit une large collection de pages web associant clichés anciens et contenus textuels. Celle-ci a pour vocation de permettre l'entraînement et l'évaluation des modèles proposés. Ceci représente une avancée dans ce domaine car aucun jeu de données comparable n'existait auparavant.Nous proposons un modèle original que nous avons développé et évalué sur des bases de photographies pour les dater grâce à leur contenu visuel. La particularité majeure de notre approche est l'exploitation pour la première fois du caractère ordinal du temps.Enfin, nous explorons la datation de photographies par l'usage des données textuelles environnantes. Notre démarche imite le comportement humain utilisé lors de la datation de photographies en contexte. Ainsi nous proposons pour la première fois une méthode automatique permettant de dater des clichés par l'usage de l'environnement textuel

    Closing the Gap Between Designers and Developers in a Low-Code Ecosystem

    Get PDF
    Digital systems play an important role in the strategy of companies nowadays as they are crucial to achieve their business goals as well as gain a competitive advantage. This is particularly true for systems designed for the end-users market. Not only has the number of such systems been growing steadily but the requirements and expectations of users regarding usability and performance have also increased. Developing software systems is a complex process that comprises several stages and involves multiple professionals responsible for different tasks. Two stages of the process are the design and implementation of User Interfaces. UX and UI designers produce artifacts such as mockups and prototypes using design tools describing what should be the systems behavior, interactivity and look and feel. Next, Front-end and Back-end developers implement the system according to the specifications defined by designers. Designers and developers use different methodologies, languages, and tools. This introduces a communication gap between both groups, and hence collaboration between them is not always smooth. This ends up causing less efficient processes, rework and loss of information. Developers sometimes overlook the importance of User Experience and Front-end De velopment. The corresponding project stages suffer when collaboration between groups is not optimal. Problems are particularly striking during the transition from design arti facts to front-end code. The procedures for doing this are often manual, very error-prone, and time-consuming for developers that end-up completely re-doing the designers’ work in the target web technology. The aim of this dissertation is to improve the efficiency of collaboration between de signers and front-end developers in the OutSystems ecosystem. This was carried out by developing a tool that transforms UX/UI design artefacts into low-code web-technology using model transformation and meta-modelling techniques. The approach has been evaluated in practice by a team of professional designers and front-end developers. Re sults show savings between 20 and 75% according to the project complexity in the effort invested by development teams in the above mentioned process.Os sistemas digitais têm um papel muito importante hoje em dia na estratégia das empresas, uma vez que as ajudam a atingir os seus objetivos de negócios assim como a ganhar vantagem competitiva face às demais. Isto é particularmente verdade para os sistemas destinados ao mercado dos utilizadores finais. Não só aumentou significativamente o número de tais sistemas como aumentaram também os requisitos e expectativas dos seus utilizadores. O desenvolvimento de sistemas de software é um processo complexo que envolve um número alargado de profissionais com diferentes perfis. Duas das fases são o design de interfaces e a sua implementação. Os UI e UX designers produzem um conjunto de ficheiros utilizando ferramentas de design descrevendo o comportamento, interação e aparência do sistema. Os Front-end e Back-end developers implementam as funcionalidades do sistema com base nas especificações dos designers. Designers e developers trabalham utilizando diferentes metodologias, linguagens e ferramentas. Isto introduz uma lacuna entre os grupos e dificulta a sua colaboração, originando processos menos eficientes, trabalho refeito e perda de informação. Os engenheiros de software por vezes negligenciam disciplinas tais como a Experi ência do Utilizador e o Front-end. Estas fases dos projetos são prejudicadas quando a colaboração entre os grupos não é ótima. Os problemas são particularmente evidentes durante a transição entre design e Front-end. Os procedimentos são manuais, altamente propensos a erros e demorados para os developers, que acabam por refazer o trabalho dos designers na tecnologia web desejada. O objetivo desta dissertação é melhorar a eficiência da colaboração entre designers e front-end developers no ecossistema OutSystems. Isto foi levado a cabo desenvolvendo uma ferramenta capaz de transformar artefactos de UX/UI em low-code utilizando transformações de modelos e técnicas de meta-modeling. A abordagem foi avaliada em prática por uma equipa profissional de designers e front-end developers. Os resultados obtidos mostram poupanças entre os 20 e os 75% de acordo com a complexidade do projeto no esforço investido pelas equipas de desenvolvimento no processo mencionado acima

    Informing personal branding through self-assessed handwriting analysis: proposal of a supportive online platform

    Get PDF
    Despite the abundant existing literature on the psychological aspects of graphology and visual communication, very little research (if any), has been conducted, as to the links of interpreting personal handmade markings on graphic self-branding processes. This research aimed to investigate possible interrelations between fields of handwriting analysis (graphology) and personal branding, underpinning methods and patterns of building graphic personal identities amongst higher education students. Furthermore, it aimed to promote the use of graphology in self-branding processes. This involved secondary sources of information, along with empirical works, totalling 25 semi-structured interviews and the collection of 97 handwritten samples to detect commonalities/differences of handmade markings. Participants included higher education students and instructors from visual communication fields across two cultural contexts: Saudi Arabia and the United Kingdom. The achieved findings were discussed with two professional UK-based graphologists. Given that self-branding is considered complex and time consuming amongst visual communication students, the outcome proposes an online personal brand design platform, innovating current methods of self-related research, yet grounded on current usages of conventional handwriting and providing a visual scope of relevant design applications, considering internal and external influencing factors

    The symbolic construction of the global imaginary in Sydney and Melbourne

    Get PDF
    Globalisation is mainly perceived and understood as an economic driven process. This study argues that an important aspect of this multidimensional process is that it is also a cultural and visual-ideological phenomenon. The 'global' pervades and alters the urban social fabric through media representations and it has the symbolic power to transform urban spaces by creating the 'global imaginary' in a single place. Although globalization scholarship as an 'objective' phenomenon is greatly expanded, so far not much attention has been paid to the feature of its 'subjective' dimension-the symbols, images and metaphors that suggest the common sense of the 'global'. In considering globalization as a material and ideational process, this exegesis carries out an investigation in the two major cities of Australia, Sydney and Melbourne, from an aesthetics of global change perspective and through a phenomenological-interpretative approach. Furthermore, through the lenses of social and political theory, this exegesis analyses and interprets a given body of visual images gathered in the two urban social fabrics under investigation and identified as 'condensation symbols' and ideological markers of globality. Located at the crossroads of global, urban and media studies, this subjective interpretative approach to the people's new public consciousness aims to grasp how the global imaginary is symbolically and socially produced. Yet these images are limited, selective and highly 'subjective' media representations of concepts associated with structures, places and identity; in this sense they are not unproblematic. However, they are crucial keys to access the 'global imaginary'. In visualising, analysing and interpreting change in Sydney and Melbourne, this study suggests that the two cities show an increasing production, circulation and consumption of visual formations that 'condense' hybrid spatial-symbolic scales of the 'local-national' and the 'global'. Indeed, this investigation reveals that the two cities display a fragmented ideological landscape in which the local-national appears increasingly mediated and sustained by the global in a process that sees the symbolical power of the global eventually reinforced. Furthermore Asia appears to be the new globalizing cultural force in Australia. Associated with these dynamics there is a process of integration, fragmentation, re-composition and eventually of cultural hybridization that supports, suggests and sustains the symbolic construction of the global imaginary in Sydney and Melbourne. As a result, it can be also asserted that different forms of globality are possible

    Screw-semantic content analysis for repair and evaluation of web accessibility

    Get PDF
    Tese de mestrado, Informática, Universidade de Lisboa, Faculdade de Ciências, 2017A Internet tem continuamente vindo a ser integrada no nosso quotidiano, tanto num ambiente profissional, como num de entretenimento. Tornou-se um recurso importante para as nossas atividades diárias, desde o trabalho à recreação. Isto significa que cada vez mais as pessoas navegam na WWW. Contudo, existem muitos tipos de utilizadores e alguns deles sofrem de deficiências, restringindo a sua experiência de utilização. Isto leva a que haja uma procura por umaWeb mais acessível para todos os tipos de utilizadores. No entanto, este processo seria mais difícil se não houvessem normas que recomendassem especificações para os sites seguirem e cumprirem, a fim de torná-los mais acessíveis. Felizmente, há uma organização designada pelas siglas WAI, Web Accessibility Initiative, que estabelece essas especificações como um conjunto de diretrizes (por exemplo, WCAG, Web Content Accessibility Guidelines), afim de ajudar no desenvolvimento das páginas web. Para ajudar os desenvolvedores, há também ferramentas como QualWeb, TotalValidator, entre outras, que permitem que os sites sejam avaliados de acordo com as diretrizes mencionadas acima, fornecendo resultados específicos. No entanto, a maioria destas ferramentas não obtém resultados com base na semântica de uma página e só conseguem fazer avaliações de sintaxe. Por exemplo, essas aplicações não avaliam se as descrições das imagens são realmente descritoras das mesmas. Nestes casos, a maioria das ferramentas pede ao desenvolvedor/utilizador para verificar manualmente. Além disso, nenhuma ferramenta conhecida consegue executar avaliações de acessibilidade Web e reparação automática. A reparação automática ajuda os utilizadores e programadoresWeb a navegar sem restrições, reparando no mesmo instante, e a transcrever de uma forma mais acessível o código, respetivamente. Assim, o principal tópico desta pesquisa é a análise de conteúdo Web semântico para melhorar a acessibilidade da Web e a sua reparação automática. Cada etapa de desenvolvimento, descrita nesta tese, será integrada no Qualweb, um avaliador de acessibilidade Web que pode realizar análise de conteúdo dinâmico. Neste documento é apresentado, primeiramente, um estudo sobre as tecnologias e metodologias existentes para a avaliação semântica e reparação de código nas páginas Web e algumas noções necessárias para o entendimento do trabalho que foi realizado. É também descrito como funciona o Qualweb e a sua arquitetura, pelo que é a ferramenta principal a beneficiar deste estudo. Relativamente ao trabalho, é apresentada uma ferramenta capaz de efetuar avaliações semânticas e geração de descrições sob conteúdo da Web, para fins de acessibilidade web, designada por Screw. Estes conteúdos irão corresponder a elementos de uma página Web que, resumidamente, poderão ser conteúdos textuais, referências a imagens e elementos/atributos do DOM que descrevam estas informações. Desta forma irão haver dois tipos de entrada no sistema, o elemento a ser descrito e a sua descrição. Este elemento poderá ser textual ou uma imagem, no entanto para verificar a semalhança semântica entre dois tipos de contéudos diferentes (imagem e texto) é necessário converter a imagem para texto, através de interpretadores que oferecem um conjunto de conceitos, que de alguma forma descrevem a imagem. Após este processo, para cada conceito é retirada a relação semântica com a descrição e com um conjunto de domínios existentes no sistema e o mesmo acontece entre a descrição e os mesmos domínios. Estes domínios são uma componente importante do sistema, pois oferecem um conjunto de dados que contextualizam tanto os conceitos como a descrição. Isto é, se a descrição e um conceito estiverem semânticamente relacionados com um mesmo domínio, então existe uma probabilidade de estes dois estarem também semanticamente relacionados. Isto irá fortalecer a relação semântica entre o conteúdo a ser descrito e a descrição. Após obter estes valores é aplicado um algoritmo que irá ditar se a descrição descreve ou não o contéudo. Para cada conceito e domínio existe, então, um valor semântico que os relaciona. Se a descrição tive algum valor relacional com esse mesmo domínio, então é aplicada uma fórmula de máximo entre, o valor da relação entre o conceito e o domínio e o valor da relação entre o conceito e a descrição. Após efetuar isto para todos os conceitos, é feita uma média de todos os valores acima de 0, isto é, que sejam positivos. Esta média irá corresponder à relação semântica entre a descrição e o conteúdo a ser descrito. Para além disto, é contado o número de vezes em que não existe relação entre os conceitos e a descrição, se este número estiver acima de um percentil, 0.6, então significa que não existe relação semântica entre a descrição e a imagem. A descrição é considerada boa ou má, se o valor obtido, pela média, está acima ou abaixo de um limite, 0.14. No fim, este algoritmo irá retornar a média e o veredito,“true” para uma boa descrição ou “false’ para uma má descrição. A estrutura de Screw é constituída por um conjunto de módulos distintos, distribuídos pelos dois processos principais, avaliação e reparação. O sistema baseia-se num Web service, permitindo interoperabilidade para ser usado não só pelo Qualweb, mas também por outras ferramentas. Além desta característica, a modularidade foi outro aspeto relevante no desenvolvimento do sistema, evitando dependências entre módulos e facilitando os desenvolvimentos sobre este. O algoritmo apresentado é distribuído pelos módulos da avaliação: Processador de Recuperação de Informações Semânticas (SIRP), Gestor de Domínio (DM) e Inspetor de Relações (RI). O SIRP é responsável por colecionar informações resumidas sobre o conteúdo, isto é, através de interpretadores e sumarizadores é fornecido um conjunto de conceitos que representam o conteúdo em palavras, no caso das imagens, ou versões resumidas, no caso de texto. O DM é responsável por obter a aproximação semântica entre domínios com a descrição e com os conceitos fornecidos pelo SIRP. Os domínios são uma componente importante do sistema, pois valorizam a relação entre os parâmetros avaliados, no sentido em que, se um dado conceito está relacionado com um certo domínio e a descrição também, então o domínio reforça a relação semântica destes dois. O RI dá a aproximação semântica entre a descrição e os conceitos, relacionando-os também com os valores obtidos no DM. O último passo da avaliação é oferecer o resultado final por meio dos módulos anteriores. O descritor do conteúdo será positivo ou negativo de acordo com o valor obtido pelo algoritmo, caso seja maior ou menor que um determinado limite, respetivamente. Na parte de reparação existem duas fases: a fase de obtenção de novas descrições e a fase de avaliação e comparação de valores. A primeira fase reúne uma série de frases geradas por serviços externos ao sistema (atualmente); a segunda fase, avalia cada uma das novas descrições com o módulo de avaliação do Screw e compara os valores de cada um com todos os valores existentes, até encontrar o melhor valor que seja acima do mesmo limite do algoritmo. Caso não haja nenhuma descrição cujo o valor seja positivo, é gerada uma descrição estática com os três melhores conceitos retirados do SIRP e que representam a imagem. A operação das interpretações, sumarizações, aproximação semântica e geração de novas descrições é suportada por um conjunto de serviços externos ao sistema, nomeadamente Clarifai, Indico e Swoogle. Estes serviços não são estacionários, isto é, podem ser alterados de acordo com a necessidade do desenvolvimento, beneficiando da modularidade do sistema. Foram realizados dois estudos neste trabalho, através de questionários online, os quais permitiram definir os melhores parâmetros do algoritmo, de forma a otimizar o seu melhor desempenho. Para além disso, estes serviram para entender a qualidade das avaliações feitas pelo sistema e também serviram para entender a qualidade das descrições de imagens atualmente naWeb. Esses estudos basearam-se em avaliações humanas sobre um conjunto de imagens e os seus textos alternativos (relativo ao atributo “alt”), para comparação entre as suas classificações e os resultados do sistema. O primeiro estudo permitiu afinar o algoritmo até atingir a melhor correlação possível, sendo que o melhor caso atingiu os 0,58, o que significa que é uma associação forte. No mesmo estudo são fornecidas os cinco melhores conceitos fornecidos pelo SIRP e a conclusão é que estas palavras nem sempre representam as imagens em questão. No segundo estudo, foram avaliadas todas as descrições geradas pelo módulo de reparação, no qual revelou que as frases geradas pelo sistema são no geral insuficientes como alternativas à descrição original. Por outro lado, no contexto da Web, existem muitas situações em que não existe qualquer tipo de descrição das imagens, o que afeta a leitura efetuada pelos leitores de ecrã. Apesar do valor não ser muito positivo, este módulo consegue gerar descrições que podem ser inseridas em atributos que não existem. Por fim, esta framework acabou por ser incluída no Qualweb, para integrar novas perspetivas de avaliação da acessibilidade Web providas de avaliações semânticas. Isto é, como foi mencionado o Qualweb só realizava avaliações sintáticas e esta integração permitiu introduzir e/ou melhorar técnicas relativas a estes problemas, como por exemplo a identificação e descrição dos “alts” nas imagens. Para além desta ferramenta, foi desenvolvido um plugin para o Google Chrome, que através dos resultados tanto do Qualweb como do Screw, concretiza reparações às páginas Web relativas às técnicas que exigem avaliação semântica de imagens.The Internet has continuously found its way into our everyday lives, both in a professional setting as well as in entertainment. It has become an important resource for our daily activities, from work to recreation. This means that increasingly more people are browsing theWWW. There are many types of users and some of them suffer from impairments, constraining their user experience. This leads to the pursuit of an accessible Web for all types of users. This process is aided with a set of guidelines (e.g. WCAG) established by a organization, W3C. These guidelines aside from being a useful guide for Web developers, they are also used byWeb accessibility tools that evaluateWeb pages in order to check issues. However most of these tools cannot resort to a page’s semantics and can only make syntactic evaluations. Also, they are not capable to repairing them. Therefore, this two subjects are the main objectives covered in this study: semantic evaluation and repair for web accessibility. For this purpose a tool called Screw is presented, which performs semantic evaluations to verify the relation between Web content (text and images) and their descriptions, applying an algorithm. For the repair mechanism, it generates new descriptions when the originals are considered bad by the tool. To support this development, two studies were carried, one for the algorithm’s optimization and the other one to verify the quality of Screw’s assessments, after the algorithm has been adjusted. For Web accessibility, Screw is integrated in Qualweb, a Web accessibility evaluator, in order to improve its evaluations to a new stage with semantic evaluation. Additionally, a plugin for Google Chrome browser was developed to repairWeb pages in real time, according to Qualweb and Screw’s results
    corecore