77 research outputs found

    Modeling processes : study in a portuguese nonprofit organization

    Get PDF
    Project Work presented as the partial requirement for obtaining a Master's degree in Information Management, specialization in Information Systems and Technologies ManagementOncological diseases, particularly the ones affecting children and young people, are a reality that is present in the quotidian thinking of world society. It is vital that during and after the treatment of children and young people with cancer, their quality of life is evaluated, such as in the case of adolescence. The performance of health organizations must consider an effective and efficient management of their processes and activities so that they can meet their mission and values. In most cases, health organizations are unprofitable, providing services in a way that satisfies a need or following a cause. It is therefore essential to emphasize the concept of social responsibility where organizations, beyond the actions of social transformation, meet the involvement of their stakeholders through a transparent and cohesive relationship where they demonstrate how projects reach the creation of a more significant social impact. This project work aims to identify and analyze the primary processes of a Portuguese nonprofit organization in pediatric oncology, ACREDITAR, contributing with a set of recommendations to improve its activity performance. This work was made to follow a case study methodology. The design science research procedure was used as a guide, following five steps: (1) the problem identification and motivation, (2) definition of the objectives, (3) the design and development, (4) the demonstration and evaluation and (5) communication. After a requirement gathering conducted by open interviews, the existing documentation, and participant observation, it was possible to identify the main activities of the organization, that were modeled with the help of the BPM notation (BPMN). The models were then submitted for evaluation, by the organization´s professionals, through semi-structured interviews which by the qualitative analysis of content have combined into a set of several propositions, that were then validated through a questionnaire. The result of the evaluation of the propositions will help to a future improvement of ACREDITAR performance and can serve as an example to other nonprofit organizations

    Manutenibilidade da semântica de modelos de dados de produtos compartilhados em rede interoperável

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico.Os dados manipulados por aplicações de engenharia têm sido tratados usando sistemas de gerência de banco de dados ou mecanismos dedicados embutidos em sistemas CAx. As tendências atuais de competitividade industrial apontam para a necessidade de integrar as aplicações de engenharia. Duas demandas principais se manifestam: o uso de um mecanismo para o acesso interoperável em rede aos dados, e a necessidade de manipular modelos de dados baseados em diferentes paradigmas. Esta tese de doutorado apresenta uma revisão sobre tecnologia de banco de dados com ênfase em aplicações de engenharia, introduz os problemas de intercâmbio de dados de produtos e interoperabilidade de aplicações, e discute o problema de perda semântica na tradução de modelos de dados de produtos compartilhados em rede e baseados em formatos padrão. Uma análise dos problemas que emergem nesta tradução, com o objetivo de avaliar a manutenibilidade da semântica dos dados ao longo de uma rede interoperável, é executada e comentada

    Gestor de Risco aplicado à área de cibersegurança

    Get PDF
    No cenário moderno de gestão de riscos de segurança cibernética, uma verdade desconfortável é clara: a gestão de riscos cibernéticos numa empresa, de forma a manter arquiteturas e sistemas seguros e em conformidade, está mais difícil do que nunca. Esta gestão passa por um processo contínuo de identificação, análise, avaliação e tratamento das ameaças de segurança cibernética. Quando se trata de gestores de riscos, geralmente segue-se um processo de quatro etapas, começando com a identificação do risco. Em seguida, o risco é avaliado com base na probabilidade de ameaças que exploram essas vulnerabilidades e o potencial impacto. Os riscos são priorizados e categorizados dependendo da estratégia de mitigação existente, na terceira etapa. Por fim, a quarta etapa, monitorização, é estruturada para a resposta ao risco num ambiente em constante mudança. Esta tese tem como objetivo o desenvolvimento de uma aplicação de gestão de risco de vulnerabilidades dos assets encontrados numa topologia de rede. Esta aplicação web tem por base a framework Flask e o uso da ferramenta open-source Nmap, para a realização da deteção dos assets e todos os serviços que estes incluem. Para a deteção das vulnerabilidades a aplicação conta com uma ligação através de duas APIs, uma para o repositório NVD e outra para o repositório VulDB de forma a identificar as vulnerabilidades existentes de cada serviço encontrado. Toda a informação encontrada é guardada numa base de dados com base em SQLite. De notar que o uso do Nmap é proibido por Lei (109/2009) mas se autorizada de forma evidenciava com permissão das partes envolventes, pode ser usado. Os testes efetuados utilizam a ferramenta VirtualBox para simular virtualmente a rede de um hospital virtual criado num outro projeto. Os resultados são por fim detalhados num relatório através da aplicação web. Este projeto conseguiu de forma bem-sucedida o desenvolvimento de um gestor de risco funcional através de uma aplicação web capaz de mapear uma rede e encontrar os assets com vulnerabilidades. Igualmente bem-sucedida foi a implementação da deteção de vulnerabilidades através de repositórios externos. Por fim esta tese implementou com sucesso uma comparação entre scans de forma a descobrir quais vulnerabilidades foram corrigidas ou que novas vulnerabilidades possam existir em determinados assets. Contudo não foi possível uma implementação com sucesso desta aplicação num projeto já existente usando React. Igualmente não foi realizada uma forma automatizada da realização de scans. Por último, devido aos recursos disponíveis, a rede hospitalar virtual foi bastante reduzida.In the modern scenario of cybersecurity, one uncomfortable truth is clear, the risk management of a company and/or institution in order to keep all its systems and information secure, is harder than ever. This management goes through a continuous cycle of identification, analysis, evaluation, and treatment of the daily threats. Usually risk management follows four steps, starting by the identification of the risk, then the evaluation of it with the probability of actors exploiting any existing vulnerability and the consequent impact. Given this analysis, the risks are prioritized and categorized depending on the mitigation strategy in place, and finally the last step is the monitorization, in other words, the structure that answers to the risk in an ever-changing environment. This Thesis has as objectives the development of a Risk Management web application that scans all the assets of a given network. This web application uses the framework Flask for its development and the open-source tool Nmap for the asset scanning and all the services running on each live host. For the detection of vulnerabilities, the application has a connection to the repository NVD through an API, and to the repository VulDB through another API, in order to identify all the existing vulnerabilities associated with the services found during the scan. All this information is stored on a SQLite database. According to the Portuguese law (109/2009), the use of the tool Nmap is strictly forbidden but can be authorized for use given the proper permission from the involved parties. The experiments use the virtualization software VirtualBox to simulate a network of a virtual Hospital that was already created in another project. All the results are in the end available as a report through the web application. This project was able to develop a functional risk management web application, capable of scan a network in order to find the vulnerable assets. Equally successful was the implementation of the vulnerability detection through the use of external vulnerability databases. Finally, this thesis successfully implemented a comparation between scans to discover which vulnerabilities have been corrected and which ones appear as new in specific assets. However, it was not possible to integrate in a successful way this application to an already existing project using React. Equally not accomplished was an automated way to schedule periodic scans. Finally, given the available resources, the hospital virtual network was largely reduced

    Diseño e implementación de un cuadro de mandos para un entorno desnormalizado

    Get PDF
    El buen devenir de un negocio depende, en gran parte, de la calidad de las decisiones estratégicas que tomen sus dirigentes y los responsables de los diferentes departamentos. Es por eso que cualquier negocio o empresa, sin importar de qué tipo o tamaño sea, debe disponer de los medios adecuados que le permitan tomar la decisión correcta en cada momento. En base a esta premisa nace en 1989 el término Business Intelligence o inteligencia empresarial, que hace referencia a la toma de decisiones por parte de las personas a partir de información útil. Por lo tanto, con la realización de este proyecto de fin de grado se pretende diseñar, desplegar y probar un sistema completo de BI, desde el modelado de la base de datos hasta la realización de un cuadro de mandos. En la primera parte del proyecto, se dedica a la explicación del modelado de la base de datos de una compañía de telefonía ficticia llamada CMED cuya lógica de negocio se basa en el almacenamiento de los consumos de los tráficos de llamadas y de datos de los clientes. Para la inserción de información en dicha base de datos, se emplean procesos automatizados mediante scripts programados en PL/SQL. La segunda parte del proyecto se centra en el cuadro de mandos generado con el software QlikView, una herramienta que sirve para analizar los datos obtenidos de los consumos de los clientes a los largo del año 2015. Es decir, ver fortalezas y debilidades del actual sistema de negocio que gobierna en la empresa para descubrir el rumbo a dirigir y así obtener beneficios. Es decir, se resume el proyecto en la creación de una base de datos y su respectivo modelo lógico de negocio, sobre la que se inserta información ficticia mediante procedimientos automatizados para ser tratados y analizados en el cuadro de mandos. En ese momento, los dirigentes del negocio podrán trazar la hoja de ruta a seguir hacia una nueva estrategia de mercado que dé lugar a beneficios.The development of a business mainly depends on the quality of the strategic decisions made by the business decision makers or the people responsible for the different departments. To this effect, any business or company, no matter of what kind or size, must have the adequate means to allow them to make the correct decision each time. This, by writing this end of career project we are trying to design, deploy and prove a complete BI system, from creating its database to making its control panel. The first part of the project explains the creation of the database of a fake telephone company called CMED, whose business logistics are based on storing call traffic usage and customers’ data. PL/SQL automated processes scripts are used to insert this information in the aforementioned database. The second part of the project focuses on the control panel generated with a QlikView software, a tool used to analyse the data obtained from the customers’ usage during the year 2015. That is, viewing the weaknesses and strengths of the actual business system operating within the company to find out what direction to take and thus obtain profit. Meaning, the project is summarised as the creation of a database and its respective business logistics model where the made up information is obtained via automated procedures to be handled and analysed in the control panel. At that point, the business directors will be able to decide the route to follow to a new market strategy which would give way to profit.Ingeniería en Tecnologías de Telecomunicació

    Development of Self-Archiving Tools to Support Archiving, Analysis and Re-Use of Qualitative Data

    Get PDF
    The potential to share and re-use qualitative archived data has garnered much interest in recent years. This increased attention can be attributed mainly to advances in both data documentation standards and digital archiving technologies, which provide users with the ability to archive, share and disseminate qualitative research materials. However, there remain theoretical and epistemological barriers to and implications for the sharing and re-use of qualitative study data. One way to address these issues is by studying research practices (with practitioners’ active involvement), in combination with developing software tools that support digital archiving of qualitative studies.Semantic technologies, combined with metadata standards and documentation schemas have the potential to enhance qualitative data documentation, archiving and analysis. In fact, it has been established that data documentation is one of the key elements that enables data archiving. The use of appropriate standard documentation frameworks is crucial to data archives’ exposure and has a direct impact on the discoverability, search and retrieval of archived data. The technological aspect of this study has been the development of a self-archiving toolkit that makes use of such technologies. The purpose of this work was to allow users, with varying levels of research experience (e.g. from undergraduate student researchers up to more experienced senior researchers) to avail of the benefits offered by qualitative digital archiving.To complement the technological developments undertaken, the present study also explored the practices of different researchers: undergraduate student researchers, researchers involved in teaching research-oriented modules, as well as senior researchers. This exploration focused on the collection, organisation, analysis and presentation of qualitative data and how these relate to and can be supported by digital archiving to enable researchers to organise, disseminate, and visualise research collections

    XATA 2006: XML: aplicações e tecnologias associadas

    Get PDF
    Esta é a quarta conferência sobre XML e Tecnologias Associadas. Este evento tem-se tornado um ponto de encontro para quem se interessa pela temática e tem sido engraçado observar que os participantes gostam e tentam voltar nos anos posteriores. O grupo base de trabalho, a comissão científica, também tem vindo a ser alargada e todos os que têm colaborado com vontade e com uma qualidade crescente ano após ano. Pela quarta vez estou a redigir este prefácio e não consigo evitar a redacção de uma descrição da evolução da XATA ao longo destes quatro anos: 2003 Nesta "reunião", houve uma vintena de trabalhos submetidos, maioritariamente da autoria ou da supervisão dos membros que integravam a comissão organizadora o que não envalidou uma grande participação e acesas discussões. 2004 Houve uma participação mais forte da comunidade portuguesa mas ainda com números pouco expressivos. Nesta altura, apostou-se também numa forte participação da indústria, o que se traduziu num conjunto apreciável de apresentações de casos reais. Foi introduzido o processo de revisão formal dos trabalhos submetidos. 2005 Houve uma forte adesão nacional e internacional (Espanha e Brasil, o que para um evento onde se pretende privilegiar a língua portuguesa é ainda mais significativo). A distribuição geográfica em Portugal também aumentou, havendo mais instituições participantes. Automatizaram-se várias tarefas como o processo de submissão e de revisão de artigos. 2006 Nesta edição actual, e contrariamente ao que acontece no plano nacional, houve um crescimento significativo. Em todas as edições, tem sido objectivo da comissão organizadora, previlegiar a produção científica e dar voz ao máximo número de participantes. Nesse sentido, este ano, não haverá oradores convidados, sendo o programa integralmente preenchido com as apresentações dos trabalhos seleccionados. Apesar disso ainda houve uma taxa significativa de rejeições, principalmente devido ao elevado número de submissões. Foi introduzido também, nesta edição, um dia de tutoriais com o objectivo de fornecer competências mínimas a quem quer começar a trabalhar na área e também poder assistir de uma forma mais informada à conferência. Se analisarmos as temáticas, abordadas nas quatro conferências, percebemos que também aqui há uma evolução no sentido de uma maior maturidade. Enquanto que no primeiro encontro, os trabalhos abordavam problemas emergentes na utilização da tecnologia, no segundo encontro a grande incidência foi nos Web Services, uma nova tecnologia baseada em XML, no terceiro, a maior incidência foi na construção de repositórios, motores de pesquisa e linguagens de interrogação, nesta quarta edição há uma distribuição quase homogénea por todas as áreas temáticas tendo mesmo aparecido trabalhos que abordam aspectos científicos e tecnológicos da base da tecnologia XML. Desta forma, podemos concluir que a tecnologia sob o ponto de vista de utilização e aplicação está dominada e que a comunidade portuguesa começa a fazer contributos para a ciência de base.Microsoft

    Privacy in the internet of Things. Fostering user empowerment fhrough digital literacy

    Get PDF
    Os dispositivos da Internet das Coisas estão por todo o lado, desde o nascimento da computação ubíqua que se prevê que a vida quotidiana do ser humano contenha milhões de dispositivos que con trolam todos os aspectos da nossa vida. Hoje em dia, temos veículos inteligentes, casas inteligentes, cidades inteligentes, dispositivos vestíveis, entre outros, que utilizam vários tipos de dispositivos e vários tipos de redes para comunicar. Estes dispositivos criam novas formas de recolha e tratamento de dados pessoais de utilizadores e não utilizadores. A maioria dos utilizadores nais nem sequer tem conhecimento ou tem pouco controlo sobre a informação que está a ser recolhida por estes sistemas. Este trabalho adopta uma abordagem holística a este problema, começando por realizar uma revisão da literatura para compilar as soluções actuais, os desa os e as oportunidades de investigação futura. Realizando, em seguida, um inquérito para saber mais sobre o conhecimento geral dos indivíduos acerca da privacidade, da Internet das Coisas e hábitos online e, nalmente, com base na informação recolhida, é proposta uma aplicação móvel que fornece aos utilizadores informações sobre os dispositivos que estão próximos e como proteger os dados que não querem partilhar com estes dispositivos. Os testes com utilizadores revelaram que os participantes val orizam ter acesso a mais informações sobre termos relacionados com a privacidade. Esta aplicação é capaz de detetar que tipo de dispositivos estão próximos, que tipo de dados são recolhidos por esses dispositivos e apresentar opções de privacidade ao utilizador, quando possível, com o objetivo de fornecer aos indivíduos uma ferramenta para tomarem decisões informadas sobre os seus dados privados.Internet of Things devices are everywhere, since the birth of ubiquitous computing, human everyday life is expected to contain millions of devices that control every aspect of our lives. Today we have smart vehicles, smart houses, smart cities, wearables among other things that use various types of devices, and various types of networks to communicate. These devices create new ways of collecting and processing personal data from users, and non-users. Most end users are not even aware or have little control over the information that is being collected by these systems. This work takes a holistic approach to this problem by rst conducting a literature review to compile current solutions, challenges and future research opportunities. Then conducting a survey to learn more about the general knowledge of individuals about privacy, the Internet of Things and online habits, and nally, based on the information gathered, a mobile application is proposed that gives users information about nearby devices, and how to protect the data that they do not want to share with them. User testing revealed that participants valued having access to more information about privacy related terms. This application is capable of detecting what type of devices are nearby, what kind of data is collected by these devices, and displaying privacy options to the user, when it is possible to do so, with the goal of providing individuals a tool to make informed decisions about their private data

    Diseño y desarrollo de una aplicación de aprendizaje musical

    Get PDF
    La presente Memoria trata sobre el diseño y desarrollo de una aplicación Android destinada al aprendizaje de un instrumento -la guitarra-. Los guitarristas autodidactas se enfrentan a diversos problemas a la hora de aprender de forma autónoma. Estos problemas no se deben a falta de recursos: hay docenas. Hay docenas de métodos de aprendizaje: algunos muy rígidos; otros demasiado ambiguos. Todos ellos tienen en común que resulta casi imposible no descuidar alguna faceta por muy disciplinado que sea el estudiante. Mucha gente dedica más de una hora diaria a viajar en transporte público. Para este sector de la población, los smartphones se han convertido en compañeros del día a día, ya que resultan una plataforma muy cómoda para actividades como aprender idiomas, consultar información o consumir contenido multimedia durante los trayectos. Por otro lado, debido a que los smartphones tienen micrófono integrado, las posibilidades de una aplicación de aprendizaje musical aumentan. En un ordenador, no siempre se dispone de micrófono, o no es accesible. El objetivo es crear una plataforma con una arquitectura escalable apta para trabajos futuros. Para ello, se ha han utilizado patrones de diseño -Modelo Vista Presentador, Clean Architecture-, reglas de estilo propuestas por Google -Material Design- y tecnologías actuales tanto para desarrollo Frontend -Android Studio, Kotlincomo para Backend -Firebase, Google Drive-. La aplicación desarrollada abarca: registro y autenticación en un servidor en la nube -Firebase Authentication-; listas de contenidos descargadas desde una base de datos -Firebase Realtime Database-; un reproductor de vídeo desarrollado con ExoPlayer como base; una sección de comentarios de usuarios; y una pantalla de perfil. Al ser una aplicación móvil basada en la nube, es fundamental optimizar el ancho de banda utilizado, por lo que se ha evaluado y probado la utilización de una tecnología de streaming con bitrate adaptativo, MPEG-DASH (Dynamic Adaptive Streaming over HTTP). A lo largo de la Memoria, se detalla cómo se han integrado las diferentes partes hasta llegar al estado final de la aplicación. Además, se mostrará cómo desarrollar tests unitarios y de instrumentación para verificar el correcto funcionamiento del código de una forma precisa.Ingeniería de Sistemas Audiovisuale

    A Web site architecture and GUI for UML models search

    Get PDF
    The tools and the way that nowadays exists for documenting doesn’t get on well with all the different existing file formats and media files. There are many ways to document software: with a video, an audio, a word document, a PDF, diagrams in different formats, discussions via email or on a chat, Internet resources and references... And you sometimes need to document another document: i.e. some the meeting reports are a document of another document (the recorded videos) and this dissertation is all the documentation of this project piled up. UmlModels is trying to gather the main existing ways to document and embed them into an area/place easily accessible everywhere you can connect to the Internet. Many advantages can be taken from here such us no worries storing the versions, the storage, wrong references to renamed or moved documents and many, many others. Here, the door is open to a huge world of new revolutionary ideas. UmlModels is also a search portal with superior semantic content. UmlModels provides a search service of UML‐Models addressed to software community engineers. This provided service does not exist on the Internet and aims to be innovative. Unlike other search engines such as Google, UmlModels provides intrinsic information of the artifacts (see ‘An Artifact for UmlModels’) in addition to the context information. Full machines entirely dedicated to search software artifacts (crawlers) are day and night searching information on the Internet that can be relevant for the software community. The retrieved information is studied, indexed, organized and offered to the users of UmlModels into a representative Model. The work presented here is the first step of a constant evolution towards a new conception of the software documentation. Nowadays the portal is able to provide almost any kind of software artifact; however only images are automatically searched by the crawlers so only software diagrams are indexed. On the future, as soon as we give intelligence enough to our bots to extract semantic from other elements such as source code, packages, assemblies and many others, will be searched into source code files, zips, textual documents such as docs, power points, PDFs and so on.Ingeniería en Informátic
    corecore