1,681 research outputs found

    Information actors beyond modernity and coloniality in times of climate change:A comparative design ethnography on the making of monitors for sustainable futures in Curaçao and Amsterdam, between 2019-2022

    Get PDF
    In his dissertation, Mr. Goilo developed a cutting-edge theoretical framework for an Anthropology of Information. This study compares information in the context of modernity in Amsterdam and coloniality in Curaçao through the making process of monitors and develops five ways to understand how information can act towards sustainable futures. The research also discusses how the two contexts, that is modernity and coloniality, have been in informational symbiosis for centuries which is producing negative informational side effects within the age of the Anthropocene. By exploring the modernity-coloniality symbiosis of information, the author explains how scholars, policymakers, and data-analysts can act through historical and structural roots of contemporary global inequities related to the production and distribution of information. Ultimately, the five theses propose conditions towards the collective production of knowledge towards a more sustainable planet

    Image-based Decision Support Systems: Technical Concepts, Design Knowledge, and Applications for Sustainability

    Get PDF
    Unstructured data accounts for 80-90% of all data generated, with image data contributing its largest portion. In recent years, the field of computer vision, fueled by deep learning techniques, has made significant advances in exploiting this data to generate value. However, often computer vision models are not sufficient for value creation. In these cases, image-based decision support systems (IB-DSSs), i.e., decision support systems that rely on images and computer vision, can be used to create value by combining human and artificial intelligence. Despite its potential, there is only little work on IB-DSSs so far. In this thesis, we develop technical foundations and design knowledge for IBDSSs and demonstrate the possible positive effect of IB-DSSs on environmental sustainability. The theoretical contributions of this work are based on and evaluated in a series of artifacts in practical use cases: First, we use technical experiments to demonstrate the feasibility of innovative approaches to exploit images for IBDSSs. We show the feasibility of deep-learning-based computer vision and identify future research opportunities based on one of our practical use cases. Building on this, we develop and evaluate a novel approach for combining human and artificial intelligence for value creation from image data. Second, we develop design knowledge that can serve as a blueprint for future IB-DSSs. We perform two design science research studies to formulate generalizable principles for purposeful design — one for IB-DSSs and one for the subclass of image-mining-based decision support systems (IM-DSSs). While IB-DSSs can provide decision support based on single images, IM-DSSs are suitable when large amounts of image data are available and required for decision-making. Third, we demonstrate the viability of applying IBDSSs to enhance environmental sustainability by performing life cycle assessments for two practical use cases — one in which the IB-DSS enables a prolonged product lifetime and one in which the IB-DSS facilitates an improvement of manufacturing processes. We hope this thesis will contribute to expand the use and effectiveness of imagebased decision support systems in practice and will provide directions for future research

    Computer Vision and Architectural History at Eye Level:Mixed Methods for Linking Research in the Humanities and in Information Technology

    Get PDF
    Information on the history of architecture is embedded in our daily surroundings, in vernacular and heritage buildings and in physical objects, photographs and plans. Historians study these tangible and intangible artefacts and the communities that built and used them. Thus valuableinsights are gained into the past and the present as they also provide a foundation for designing the future. Given that our understanding of the past is limited by the inadequate availability of data, the article demonstrates that advanced computer tools can help gain more and well-linked data from the past. Computer vision can make a decisive contribution to the identification of image content in historical photographs. This application is particularly interesting for architectural history, where visual sources play an essential role in understanding the built environment of the past, yet lack of reliable metadata often hinders the use of materials. The automated recognition contributes to making a variety of image sources usable forresearch.<br/

    Deep Multimodality Image-Guided System for Assisting Neurosurgery

    Get PDF
    Intrakranielle Hirntumoren gehören zu den zehn hĂ€ufigsten bösartigen Krebsarten und sind fĂŒr eine erhebliche MorbiditĂ€t und MortalitĂ€t verantwortlich. Die grĂ¶ĂŸte histologische Kategorie der primĂ€ren Hirntumoren sind die Gliome, die ein Ă€ußerst heterogenes Erschei-nungsbild aufweisen und radiologisch schwer von anderen HirnlĂ€sionen zu unterscheiden sind. Die Neurochirurgie ist meist die Standardbehandlung fĂŒr neu diagnostizierte Gliom-Patienten und kann von einer Strahlentherapie und einer adjuvanten Temozolomid-Chemotherapie gefolgt werden. Die Hirntumorchirurgie steht jedoch vor großen Herausforderungen, wenn es darum geht, eine maximale Tumorentfernung zu erreichen und gleichzeitig postoperative neurologische Defizite zu vermeiden. Zwei dieser neurochirurgischen Herausforderungen werden im Folgenden vorgestellt. Erstens ist die manuelle Abgrenzung des Glioms einschließlich seiner Unterregionen aufgrund seines infiltrativen Charakters und des Vorhandenseins einer heterogenen KontrastverstĂ€rkung schwierig. Zweitens verformt das Gehirn seine Form ̶ die so genannte "Hirnverschiebung" ̶ als Reaktion auf chirurgische Manipulationen, Schwellungen durch osmotische Medikamente und AnĂ€sthesie, was den Nutzen prĂ€opera-tiver Bilddaten fĂŒr die Steuerung des Eingriffs einschrĂ€nkt. Bildgesteuerte Systeme bieten Ärzten einen unschĂ€tzbaren Einblick in anatomische oder pathologische Ziele auf der Grundlage moderner BildgebungsmodalitĂ€ten wie Magnetreso-nanztomographie (MRT) und Ultraschall (US). Bei den bildgesteuerten Instrumenten handelt es sich hauptsĂ€chlich um computergestĂŒtzte Systeme, die mit Hilfe von Computer-Vision-Methoden die DurchfĂŒhrung perioperativer chirurgischer Eingriffe erleichtern. Die Chirurgen mĂŒssen jedoch immer noch den Operationsplan aus prĂ€operativen Bildern gedanklich mit Echtzeitinformationen zusammenfĂŒhren, wĂ€hrend sie die chirurgischen Instrumente im Körper manipulieren und die Zielerreichung ĂŒberwachen. Daher war die Notwendigkeit einer BildfĂŒhrung wĂ€hrend neurochirurgischer Eingriffe schon immer ein wichtiges Anliegen der Ärzte. Ziel dieser Forschungsarbeit ist die Entwicklung eines neuartigen Systems fĂŒr die peri-operative bildgefĂŒhrte Neurochirurgie (IGN), nĂ€mlich DeepIGN, mit dem die erwarteten Ergebnisse der Hirntumorchirurgie erzielt werden können, wodurch die GesamtĂŒberle-bensrate maximiert und die postoperative neurologische MorbiditĂ€t minimiert wird. Im Rahmen dieser Arbeit werden zunĂ€chst neuartige Methoden fĂŒr die Kernbestandteile des DeepIGN-Systems der Hirntumor-Segmentierung im MRT und der multimodalen prĂ€ope-rativen MRT zur intraoperativen US-Bildregistrierung (iUS) unter Verwendung der jĂŒngs-ten Entwicklungen im Deep Learning vorgeschlagen. Anschließend wird die Ergebnisvor-hersage der verwendeten Deep-Learning-Netze weiter interpretiert und untersucht, indem fĂŒr den Menschen verstĂ€ndliche, erklĂ€rbare Karten erstellt werden. Schließlich wurden Open-Source-Pakete entwickelt und in weithin anerkannte Software integriert, die fĂŒr die Integration von Informationen aus Tracking-Systemen, die Bildvisualisierung und -fusion sowie die Anzeige von Echtzeit-Updates der Instrumente in Bezug auf den Patientenbe-reich zustĂ€ndig ist. Die Komponenten von DeepIGN wurden im Labor validiert und in einem simulierten Operationssaal evaluiert. FĂŒr das Segmentierungsmodul erreichte DeepSeg, ein generisches entkoppeltes Deep-Learning-Framework fĂŒr die automatische Abgrenzung von Gliomen in der MRT des Gehirns, eine Genauigkeit von 0,84 in Bezug auf den WĂŒrfelkoeffizienten fĂŒr das Bruttotumorvolumen. Leistungsverbesserungen wurden bei der Anwendung fort-schrittlicher Deep-Learning-AnsĂ€tze wie 3D-Faltungen ĂŒber alle Schichten, regionenbasier-tes Training, fliegende Datenerweiterungstechniken und Ensemble-Methoden beobachtet. Um Hirnverschiebungen zu kompensieren, wird ein automatisierter, schneller und genauer deformierbarer Ansatz, iRegNet, fĂŒr die Registrierung prĂ€operativer MRT zu iUS-Volumen als Teil des multimodalen Registrierungsmoduls vorgeschlagen. Es wurden umfangreiche Experimente mit zwei Multi-Location-Datenbanken durchgefĂŒhrt: BITE und RESECT. Zwei erfahrene Neurochirurgen fĂŒhrten eine zusĂ€tzliche qualitative Validierung dieser Studie durch, indem sie MRT-iUS-Paare vor und nach der deformierbaren Registrierung ĂŒberlagerten. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene iRegNet schnell ist und die besten Genauigkeiten erreicht. DarĂŒber hinaus kann das vorgeschlagene iRegNet selbst bei nicht trainierten Bildern konkurrenzfĂ€hige Ergebnisse liefern, was seine AllgemeingĂŒltigkeit unter Beweis stellt und daher fĂŒr die intraoperative neurochirurgische FĂŒhrung von Nutzen sein kann. FĂŒr das Modul "ErklĂ€rbarkeit" wird das NeuroXAI-Framework vorgeschlagen, um das Vertrauen medizinischer Experten in die Anwendung von KI-Techniken und tiefen neuro-nalen Netzen zu erhöhen. Die NeuroXAI umfasst sieben ErklĂ€rungsmethoden, die Visuali-sierungskarten bereitstellen, um tiefe Lernmodelle transparent zu machen. Die experimen-tellen Ergebnisse zeigen, dass der vorgeschlagene XAI-Rahmen eine gute Leistung bei der Extraktion lokaler und globaler Kontexte sowie bei der Erstellung erklĂ€rbarer Salienzkar-ten erzielt, um die Vorhersage des tiefen Netzwerks zu verstehen. DarĂŒber hinaus werden Visualisierungskarten erstellt, um den Informationsfluss in den internen Schichten des Encoder-Decoder-Netzwerks zu erkennen und den Beitrag der MRI-ModalitĂ€ten zur end-gĂŒltigen Vorhersage zu verstehen. Der ErklĂ€rungsprozess könnte medizinischen Fachleu-ten zusĂ€tzliche Informationen ĂŒber die Ergebnisse der Tumorsegmentierung liefern und somit helfen zu verstehen, wie das Deep-Learning-Modell MRT-Daten erfolgreich verar-beiten kann. Außerdem wurde ein interaktives neurochirurgisches Display fĂŒr die EingriffsfĂŒhrung entwickelt, das die verfĂŒgbare kommerzielle Hardware wie iUS-NavigationsgerĂ€te und Instrumentenverfolgungssysteme unterstĂŒtzt. Das klinische Umfeld und die technischen Anforderungen des integrierten multimodalen DeepIGN-Systems wurden mit der FĂ€higkeit zur Integration von (1) prĂ€operativen MRT-Daten und zugehörigen 3D-Volumenrekonstruktionen, (2) Echtzeit-iUS-Daten und (3) positioneller Instrumentenver-folgung geschaffen. Die Genauigkeit dieses Systems wurde anhand eines benutzerdefi-nierten Agar-Phantom-Modells getestet, und sein Einsatz in einem vorklinischen Operati-onssaal wurde simuliert. Die Ergebnisse der klinischen Simulation bestĂ€tigten, dass die Montage des Systems einfach ist, in einer klinisch akzeptablen Zeit von 15 Minuten durchgefĂŒhrt werden kann und mit einer klinisch akzeptablen Genauigkeit erfolgt. In dieser Arbeit wurde ein multimodales IGN-System entwickelt, das die jĂŒngsten Fort-schritte im Bereich des Deep Learning nutzt, um Neurochirurgen prĂ€zise zu fĂŒhren und prĂ€- und intraoperative Patientenbilddaten sowie interventionelle GerĂ€te in das chirurgi-sche Verfahren einzubeziehen. DeepIGN wurde als Open-Source-Forschungssoftware entwickelt, um die Forschung auf diesem Gebiet zu beschleunigen, die gemeinsame Nut-zung durch mehrere Forschungsgruppen zu erleichtern und eine kontinuierliche Weiter-entwicklung durch die Gemeinschaft zu ermöglichen. Die experimentellen Ergebnisse sind sehr vielversprechend fĂŒr die Anwendung von Deep-Learning-Modellen zur UnterstĂŒtzung interventioneller Verfahren - ein entscheidender Schritt zur Verbesserung der chirurgi-schen Behandlung von Hirntumoren und der entsprechenden langfristigen postoperativen Ergebnisse

    Proceedings of the 25th Bilateral Student Workshop CTU Prague and HTW Dresden - User Interfaces & Visualization

    Get PDF
    This technical report publishes the proceedings of the 25th Bilateral Student Workshop CTU Prague and HTW Dresden - User Interfaces & Visualization -, which was held on the 25th and 26th November 2021. The workshop offers a possibility for young scientists to present their current research work in the fields of computer graphics, human-computer-interaction, robotics and usability. The works is meant as a platform to bring together researchers from both the Czech Technical University in Prague (CTU) and the University of Applied Sciences Dresden (HTW). The German Academic Exchange Service offers its financial support to allow student participants the bilateral exchange between Prague and Dresden.:1) Multiprojection of Langweil®s model, p.4 2) Design of an assistant for persons interested in study at CTU FEE, p.8 3) Sonification of a juggling performance, p.12 4) Investigating the Role of Usability User Experience and Aesthetics for Industrial Human–Machine Interfaces, p.16 5) Using optically illusive architecture to navigate users in Virtual Reality, p.23 6) Speed and Required Precision of Grabbing Physical Spheres in VR, p.27 7) ReFlex - A Framework for Research on Elastic Displays, p.32 8) Digital Reading Stand (DRS), p.38 9) IDOVIR – Infrastructure for Documentation of Virtual Reconstructions, p.45 10) Tracking multiple VR users in a shared physical space, p.50 11) Towards Aesthetics of Subjectivity in InfoVis, p.53 12) VentConnect: live to life and the octopus in the hospital server room, p.60 13) Nice noise: background noise enhancement with generated musical content, p.66 14) Parametric Curve Labeling, p.7

    ACARORUM CATALOGUS IX. Acariformes, Acaridida, Schizoglyphoidea (Schizoglyphidae), Histiostomatoidea (Histiostomatidae, Guanolichidae), Canestrinioidea (Canestriniidae, Chetochelacaridae, Lophonotacaridae, Heterocoptidae), Hemisarcoptoidea (Chaetodactylidae, Hyadesiidae, Algophagidae, Hemisarcoptidae, Carpoglyphidae, Winterschmidtiidae)

    Get PDF
    The 9th volume of the series Acarorum Catalogus contains lists of mites of 13 families, 225 genera and 1268 species of the superfamilies Schizoglyphoidea, Histiostomatoidea, Canestrinioidea and Hemisarcoptoidea. Most of these mites live on insects or other animals (as parasites, phoretic or commensals), some inhabit rotten plant material, dung or fungi. Mites of the families Chetochelacaridae and Lophonotacaridae are specialised to live with Myriapods (Diplopoda). The peculiar aquatic or intertidal mites of the families Hyadesidae and Algophagidae are also included.Publishe

    Machine Learning Algorithm for the Scansion of Old Saxon Poetry

    Get PDF
    Several scholars designed tools to perform the automatic scansion of poetry in many languages, but none of these tools deal with Old Saxon or Old English. This project aims to be a first attempt to create a tool for these languages. We implemented a Bidirectional Long Short-Term Memory (BiLSTM) model to perform the automatic scansion of Old Saxon and Old English poems. Since this model uses supervised learning, we manually annotated the Heliand manuscript, and we used the resulting corpus as labeled dataset to train the model. The evaluation of the performance of the algorithm reached a 97% for the accuracy and a 99% of weighted average for precision, recall and F1 Score. In addition, we tested the model with some verses from the Old Saxon Genesis and some from The Battle of Brunanburh, and we observed that the model predicted almost all Old Saxon metrical patterns correctly misclassified the majority of the Old English input verses

    Approximation in Morphology

    Get PDF
    This Special Issue "Approximation in Morphology" has been collated from peer-reviewed papers presented at the ApproxiMo 'discontinuous' workshop (2022), which was held online between December 2021 and May 2022, and organized by Francesca Masini (Bologna), Muriel Norde (Berlin) and Kristel Van Goethem (Louvain)
    • 

    corecore