9 research outputs found

    A Generative Communication Service for Database Interoperability

    Get PDF
    Parallel and distributed programming is conceptually harder to undertake and to understand than sequential programming, because a programmer often has to manage the coexistence and coordination of multiple concurrent activities. The model of Generative Communication in Linda a paradigm that has been developed for parallel computing emphasizes the decoupling of cooperating parallel processes; thus, relieving the programmer from the burden of having to consider all process interrelations explicitly. In many application areas, data is distributed over a multitude of heterogeneous, autonomous information systems. These systems are often isolated and an exchange of data among them is not easy. On the other hand, support for dynamic exchange of data is required to improve the business processes. Cooperative information systems enable such autonomous systems to interoperate. They are complex systems of systems which require a well designed and flexible software architecture. The Linda model had a great influence on research in parallel programming languages. Stimulated by this success, a Generative Communication Service, which offers a very flexible associative addressing mechanism based on metadata matching, has been developed for supporting interoperability of cooperative information systems. Some design patterns guided the construction of the resulting communication service that has been implemented on top of CORBA for an ODMG canonical data model

    Design of a communication framework for interpoerable information systems

    Get PDF
    Frameworks are class hierarchies plus models of interactions which can be turned into complete applications through various kinds of specialization. Design patterns often guide the construction and documentation of frameworks. The runtime architecture of a framework is characterized by an inversion of control: event handler objects of the application are invoked via the framework s reactive dispatching mechanism. This paper reports the development process of a software architecture that has been designed for accomplishing the transfer of operation specifications among interoperable information systems within a larger project, such that -the communication framework does not need to know the structure and different types of operation specifications to be transferred and the individual information systems do not need to know the communication platform (in our case CORBA). Some design patterns guided the construction of the resulting object-oriented framework to achieve a flexible software architecture. The emphasis of this paper is the description of the way in which the communication framework has been designed

    Einsatz von Entwurfsmustern bei der Entwicklung eines föderierten Krankenhausinformationssystems mit CORBA

    Get PDF
    Verteilte Krankenhausinformationssysteme sind komplexe Systeme von Systemen, die eine flexible Software-Architektur benötigen. Im vorliegenden Beitrag präsentieren wir die Architektur eines föderierten Krankenhausinformationssystems und berichten über unsere Erfahrungen mit dem Einsatz von Entwurfsmustern für die Strukturierung und Programmierung der CORBA-basierten Kommunikationsschnittstelle für dieses System

    Polymorphic Matrices in Paladin

    Get PDF
    International audienceScientific programmers are eager to take advantage of the computational power offered by Distributed Computing Systems (DCSs), but are generally reluctant to undertake the porting of their application programs onto such machines. The DCS commercially available today are indeed widely believed to be difficult to use, which should not be a surprise since they are traditionally programmed with software tools dating back to the days of punch cards and paper tape. We claim that provided modern object oriented technologies are used, these computers can be programmed easily and efficiently. In EPEE, our Eiffel Parallel Execution Environment, we propose to use a kind of parallelism known as data-parallelism, encapsulated within classes of the Eiffel sequential object-oriented language, using the SPMD (Single Program Multiple Data) programming model. We describe our method for designing with this environment Paladin, an object-oriented linear algebra library for DCSs. We show how dynamic binding and polymorphism can be used to solve the problems set by the dynamic aspects of the distribution of linear algebra objects such as matrices and vectors

    Intergiciel d'intergiciels adaptable Ă  base de Services, Composants et Aspects

    Get PDF
    Cette habilitation à diriger des recherches présente mes travaux sur le génie logiciel des intergiciels, domaine à la croisée de l’informatique répartie et du génie logiciel. L’intergiciel est la couche logicielle permettant de s’abstraire de l’hétérogénéité des technologies de l’informatique distribuée et de répondre aux besoins d’interopérabilité, de portabilité, d’adaptation et de séparation des préoccupations des applications réparties. Mes travaux ont été guidés par deux questions de recherche ouvertes : 1) quel est le paradigme de programmation le plus approprié pour les applications réparties ? 2) quelle est l’organisation la plus appropriée pour l’intergiciel ?La première partie présente une synthèse de mes travaux et contributions. Premièrement, mes travaux ont porté sur la transition des objets vers les composants CORBA donnant lieu à deux contributions majeures : le langage de script CorbaScript standardisé auprès de l’OMG et la plate-forme OpenCCM pour le développement, le déploiement, l’exécution et l’administration d’applications réparties à base de composants CORBA. Deuxièmement, je me suis intéressé à la conception de canevas intergiciels hautement adaptables. Ces travaux basés sur les composants réflexifs Fractal ont donné lieu à un cadre de programmation par attributs sur lequel trois canevas flexibles pour la gestion du transactionnel, le déploiement de systèmes distribués hétérogènes et les composants Java temps-réels ont été bâtis. Enfin, mes travaux ont porté sur la proposition du modèle Services Composants Aspects (SCA) et l’intergiciel d’intergiciels FraSCAti.La deuxième partie opère un zoom sur le projet FraSCAti. La contribution scientifique de ce projet est de proposer un intergiciel réflexif pour l’informatique orientée service combinant deux idées originales : la notion d’intergiciel d’intergiciels et le modèle Services Composants Aspects réflexif. Partant du constat qu’il n’existe pas d’intergiciel universel capable de couvrir l’ensemble des besoins de toutes les applications distribuées, le projet FraSCAti propose un canevas intergiciel extensible pour l’intégration et la composition élégante des intergiciels et technologies SOA existants, c’est-à-dire un intergiciel d’intergiciels. Le modèle SCA réflexif est quant à lui le mariage fécond du standard OASIS Service Component Architecture (SCA), du modèle de composants Fractal et de la programmation orientée aspects (AOP). Dans ce modèle, tout est composant réflexif permettant ainsi d’adapter dynamiquement aussi bien les applications métiers, l’intergiciel, les liaisons de communication réseau que les aspects non fonctionnels. Cette contribution a été appliquée sur l’orchestration de services à large échelle, la construction de systèmes de systèmes et une plate-forme distribuée multi-nuages. La dernière partie dresse un bilan des contributions et présente mes perspectives de recherche centrées sur le génie logiciel pour l’informatique en nuage (cloud computing)

    Remote Sensing Data Compression

    Get PDF
    A huge amount of data is acquired nowadays by different remote sensing systems installed on satellites, aircrafts, and UAV. The acquired data then have to be transferred to image processing centres, stored and/or delivered to customers. In restricted scenarios, data compression is strongly desired or necessary. A wide diversity of coding methods can be used, depending on the requirements and their priority. In addition, the types and properties of images differ a lot, thus, practical implementation aspects have to be taken into account. The Special Issue paper collection taken as basis of this book touches on all of the aforementioned items to some degree, giving the reader an opportunity to learn about recent developments and research directions in the field of image compression. In particular, lossless and near-lossless compression of multi- and hyperspectral images still remains current, since such images constitute data arrays that are of extremely large size with rich information that can be retrieved from them for various applications. Another important aspect is the impact of lossless compression on image classification and segmentation, where a reasonable compromise between the characteristics of compression and the final tasks of data processing has to be achieved. The problems of data transition from UAV-based acquisition platforms, as well as the use of FPGA and neural networks, have become very important. Finally, attempts to apply compressive sensing approaches in remote sensing image processing with positive outcomes are observed. We hope that readers will find our book useful and interestin

    Diseño e implementación de una cadena completa para desmezclado de imágenes hiperespectrales en tarjetas gráficas programables (GPUs)

    Get PDF
    La principal contribución del presente trabajo de tesis doctoral viene dada por la propuesta de nuevos algoritmos paralelos para desmezclado de imágenes hiperespectrales en aplicaciones de observación remota de la superficie terrestre mediante sensores aerotransportados o de tipo satélite. Dichos algoritmos se fundamentan en el problema de la mezcla, que permite expresar los píxels de una imagen hiperespectral como una combinación lineal o no lineal de elementos espectralmente puros (“endmembers”) ponderados por sus correspondientes fracciones de abundancia. Una vez descrita la base teórica del estudio, la tesis doctoral presenta una serie de nuevos algoritmos paralelos desarrollados, los cuales integran una cadena completa de desmezclado espectral o “unmixing” con las siguientes etapas: 1) estimación automática del número de “endmembers” en una imagen hiperespectral, 2) identificación automática de dichos “endmembers” en la imagen hiperespectral, y 3) estimación de la abundancia de cada “endmember” en cada píxel de la imagen. Tras presentar los nuevos algoritmos paralelos desarrollados con motivo del presente trabajo, realizamos un detallado estudio cuantitativo y comparativo de su precisión en el proceso de desmezclado y su rendimiento computacional en un conjunto de arquitecturas basadas en tarjetas tarjeta gráficas programables de NVidia (modelos Nvidia Tesla C1060 y NVidia GeForce 580 GTX). Los resultados experimentales han sido obtenidos utilizando imágenes hiperespectrales obtenidas por los sensores Airborne Visible Infra-Red Imaging Spectrometer (AVIRIS) e Hyperion de NASA en el contexto de varias aplicaciones reales de gran relevancia social, consistentes en la detección de los incendios que se propagaron en los días posteriores al atentado terrorista del World Trade Center en Nueva York o en la identificación automática de minerales en la región de Cuprite, Nevada, Estados Unidos. En dichos escenarios, los equipos de NASA y el Instituto Geológico de Estados Unidos (USGS) que participaron en las tareas de extinción y emergencia (en el caso de la imagen World Trade Center) e identificación de minerales (en el caso de la imagen de Cuprite) reconocieron que la disponibilidad de técnicas de desmezclado espectral en tiempo real hubiese facilitado las labores de los equipos que actuaron en dichas zonas, por lo que las técnicas desarrolladas se han desarrollado con el objetivo de permitir la realización de dichas tareas en el futuro. La memoria de tesis concluye con una discusión de las técnicas desarrolladas (incluyendo una serie de recomendaciones sobre su mejor uso en diferentes circunstancias), con la descripción de las principales conclusiones y líneas futuras derivadas del estudio, y con la bibliografía relacionada, tanto en la literatura general como la generada por el candidato.The main contribution of the present thesis work is given by the proposal of several new parallel algoritms for spectral mixture analysis of remotely sensed hyperspectral images obtained from airborne or satellite Earth observation platforms. These algorithms are focused on the identification of the most spectrally pure constituents of a hyperspectral image, and on the characterization of mixed pixels as linear or nonlinear combinations of endmembers weighted by their fractional abundances on a sub-pixel basis. Once the theoretical foundations of the proposed study are described, we proceed to describe in detail the new parallel algorithms developed as the main contribution of this research work, discussing the different steps followed in their development which comprise the following stages: 1) automatic identification of the number of endmembers in the hyperspectral image; 2) automatic identification of the spectral signatures of such endmembers; and 3) estimation of the fractional abundance of endmembers on a sub-pixel basis. After describing the new parallel algorithms introduced in this work, we develop a comprehensive quantitative and comparative analysis in terms of unmixing accuracy and computational performance using a set of graphics processing unit (GPU)-based architectures, including the NVidia Tesla C1060 and the NVidia GeForce 580 GTX. The experimental results reported in this work are evaluated in the context of two real applications with great societal impact: the possibility to automatically detect the thermal hot spots of the fires which spread in the World Trade Center area during the days after the terrorist attack of September 11th, 2001, and the possibility to perform real-time mapping of minerals in the Cuprite mining district of Nevada, USA, using hyperspectral data sets collected by NASA’s Airborne Visible Infra-Red Imaging Spectrometer (AVIRS) and the Hyperion instrument onboard Earth Observing One (EO-1) spacecraft. It is acknowledged by some of the organizations that, if high performance computing infrastructure had been available at the time of these events, the hyperspectral data would have been much more useful. The design of new techniques for this purpose may help the development of such tasks in future events. The thesis document concludes with a detailed discussion on the techniques presented herein (including processing recommendations and best practice), with the drawing of the main conclusions and hints at plausible future research, and with a detailed bibliography on the research area and on the specific contributions provided by the candidate to the scientific literature devoted to this topic

    CORBA und ODMG-93 als Grundlage zur Realisierung eines föderierten Datenbanksystems

    Get PDF
    Der zunehmende Einsatz von Datenbanksystemen (DBS) führte in den letzten Jahren dazu, daß heute in vielen Organisationen unterschiedliche Datenbanksysteme nebeneinander im Einsatz sind. Gründe hierfür liegen einerseits darin, daß verschiedene Datenbankmanagementsysteme (DBMS) sich in unterschiedlicher Weise gut für bestimmte Anwendungsbereiche eignen, andererseits unterstützen Hersteller von spezieller Anwendungssoftware im allgemeinen nur bestimmte DBMS. Hieraus resultiert, daß der eine Organisation betreffende Realweltauschnitt auf eine Menge von unterschiedlichen Datenhaltungssystemen abgebildet wird. Es zeigt sich, daß diese Systeme sehr oft inhaltlich verwandte Daten verwalten. Diese Situation verschärft sich auch in dem Maße, in dem Organisationen sich zusammenschließen, etwa bei Fusionierung von Unternehmen oder durch Restruktierung von Behörden. Das Betreiben dieser voneinander isolierten DBS innerhalb einer Organisation impliziert eine Reihe von gravierenden Problemen. Die redundante Haltung der gleichen Information in verschiedenen, nicht kooperien den Systemen legt dabei den Benutzern zusätzliche Mehrarbeit auf. Das Verknüpfen von Daten unterschiedlicher DBS wird in keiner Weise unterstützt, wodurch ein Informationsverlust ensteht ("das Ganze ist mehr als die Summe seiner Teile"). Die Entwicklung und Realisierung eines einzigen, unternehmensweiten Datenmodells als Ausweg aus der Krise führt häufig zu sehr komplexen, schlecht überschaubaren und ineffizienten Informationssystemen. Darüber hinaus ist dieser Weg häufig in ökonomischer Hinsicht nicht sinnvoll, da eine Migration erhebliche Kosten verursacht und die bereits bestehenden Anwendungen einen großen Teil des Unternehmens-Know-Hows darstellen. Ein vielversprechender Ansatz zur Integration von heterogenen Datenbeständen innerhalb einer Organisation stellen föderierte Datenbanksysteme (FDBS) dar, welche aktueller Gegenstand der Forschung sind. Föderierte Datenbanksysteme versuchen mithilfe einer zusätzlichen Softwareschicht die Heterogenität der zu integrierenden Datenbanksysteme transparent zu machen und eine neue integrierte Sicht auf die verteilten Daten einer Organisation zu unterstützen. Im Rahmen der Föderation bewahren die bestehenden Datenbanksysteme weitgehend ihre Autonomie, so daß bestehende Anwendungen unverändert weiterlaufen können. Insofern ist ein föderiertes Datenbanksystem durchaus mit einer politischen Föderation, wie etwa der Europäischen Union oder der Uno, zu vergleichen. Ähnlich wie bei einer politischen Föderation besteht die besondere Problematik bei der Entwicklung eines föderierten Datenbanksystems in der Heterogenität der zu integrierenden Teilsysteme. Die Zielse tzung dieser Diplomarbeit besteht darin, vor dem Hintergrund eines konkreten Anwendungs-Szenarios ein föderietes Datenbanksystem zu entwickeln, das versucht die Heterogenitäts-Problematik durch den Einsatz von Standards zu lösen. Als Anwendungs-Szenario wurde die Eingemeindung der Städte Bochum und Wattenscheid und die daraus resultierende Restrukturierung der städtischen Behörden gewählt. Das zu entwickelnde föderierte Datenbanksystem soll die datentechnische Kooperation ausgewählter Behörden unterstützen. Hierbei sollen insbesondere zwei wesentliche Aspekte der Heterogenität der zu integrierenden Datenbanksysteme betrachtet werden:Bezüglich der Heterogenität in der Ablaufumgebung soll in der Diplomarbeit der Ansatz verfolgt werden, die Komponenten des angestrebten FDBS als verteilte, kooperierende Objekte zu konzipieren und zu realisieren. Diese kommunizieren über einen CORBA kompatiblen Object Request Broker (ORB) miteinander. Die Common-Object-Request-Broker-Architecture (CORBA) beschreibt eine objektorientierte Infrastruktur, welche die Entwicklung von verteilten objektorientierten Systemen standardisiert. Der CORBA-Standard könnte schon bald zu einer Art Esperanto für verteilte heterogene Objekte avancieren. Die Heterogenität der Datenbankmanagementsysteme (DBMS) bzw. ihrer unterschiedlichen Datenmodelle soll durch den Einsatz des ODMG-93-Standards für objektorientierte Datenbankmanagementsysteme (ODBMS) überwunden werden. Das objektorientierte Datenmodell dieses Standards soll dabei als gemeinsames Datenmodell des föderierten Datenbanksystems fungieren. Die Rolle des gemeinsamen Datenmodells ist in etwa vergleichbar mit der Rolle der gemeinsamen Amtsprache in einer politischen Föderation. Ihre Ausdrucksstärke hat einen wesentliche Einfluß auf den Grad der erreichbaren Kooperation. Das föderierte Datenbanksystem soll unter Einsatz objektorientierter Entwurfsmethoden entwickelt werden. In der Diplomarbeit soll die Unified Modeling Language, die durch das Entwurfswerkzeug Rational Rose 4.0 unterstützt wird, eingesetzt werden
    corecore