40 research outputs found
2022 Touro University System Faculty Publications
The 2022 edition of the Faculty Publications Book of the Touro University system. This bibliography contains the published works of affiliated authors during 2022, arranged by academic unit.https://touroscholar.touro.edu/facpubs/1012/thumbnail.jp
Underwater Vehicles
For the latest twenty to thirty years, a significant number of AUVs has been created for the solving of wide spectrum of scientific and applied tasks of ocean development and research. For the short time period the AUVs have shown the efficiency at performance of complex search and inspection works and opened a number of new important applications. Initially the information about AUVs had mainly review-advertising character but now more attention is paid to practical achievements, problems and systems technologies. AUVs are losing their prototype status and have become a fully operational, reliable and effective tool and modern multi-purpose AUVs represent the new class of underwater robotic objects with inherent tasks and practical applications, particular features of technology, systems structure and functional properties
Innovation, Economic Development, and Intellectual Property in India and China
This open access book analyses intellectual property codification and innovation governance in the development of six key industries in India and China. These industries are reflective of the innovation and economic development of the two economies, or of vital importance to them: the IT Industry; the film industry; the pharmaceutical industry; plant varieties and food security; the automobile industry; and peer production and the sharing economy. The analysis extends beyond the domain of IP law, and includes economics and policy analysis. The overarching concern that cuts through all chapters is an inquiry into why certain industries have developed in one country and not in the other, including: the role that state innovation policy and/or IP policy played in such development; the nature of the state innovation policy/IP policy; and whether such policy has been causal, facilitating, crippling, co-relational, or simply irrelevant. The book asks what India and China can learn from each other, and whether there is any possibility of synergy. The book provides a real-life understanding of how IP laws interact with innovation and economic development in the six selected economic sectors in China and India. The reader can also draw lessons from the success or failure of these sectors
SupRB: A Supervised Rule-based Learning System for Continuous Problems
We propose the SupRB learning system, a new Pittsburgh-style learning
classifier system (LCS) for supervised learning on multi-dimensional continuous
decision problems. SupRB learns an approximation of a quality function from
examples (consisting of situations, choices and associated qualities) and is
then able to make an optimal choice as well as predict the quality of a choice
in a given situation. One area of application for SupRB is parametrization of
industrial machinery. In this field, acceptance of the recommendations of
machine learning systems is highly reliant on operators' trust. While an
essential and much-researched ingredient for that trust is prediction quality,
it seems that this alone is not enough. At least as important is a
human-understandable explanation of the reasoning behind a recommendation.
While many state-of-the-art methods such as artificial neural networks fall
short of this, LCSs such as SupRB provide human-readable rules that can be
understood very easily. The prevalent LCSs are not directly applicable to this
problem as they lack support for continuous choices. This paper lays the
foundations for SupRB and shows its general applicability on a simplified model
of an additive manufacturing problem.Comment: Submitted to the Genetic and Evolutionary Computation Conference 2020
(GECCO 2020
Relatedness Measures to Aid the Transfer of Building Blocks among Multiple Tasks
Multitask Learning is a learning paradigm that deals with multiple different
tasks in parallel and transfers knowledge among them. XOF, a Learning
Classifier System using tree-based programs to encode building blocks
(meta-features), constructs and collects features with rich discriminative
information for classification tasks in an observed list. This paper seeks to
facilitate the automation of feature transferring in between tasks by utilising
the observed list. We hypothesise that the best discriminative features of a
classification task carry its characteristics. Therefore, the relatedness
between any two tasks can be estimated by comparing their most appropriate
patterns. We propose a multiple-XOF system, called mXOF, that can dynamically
adapt feature transfer among XOFs. This system utilises the observed list to
estimate the task relatedness. This method enables the automation of
transferring features. In terms of knowledge discovery, the resemblance
estimation provides insightful relations among multiple data. We experimented
mXOF on various scenarios, e.g. representative Hierarchical Boolean problems,
classification of distinct classes in the UCI Zoo dataset, and unrelated tasks,
to validate its abilities of automatic knowledge-transfer and estimating task
relatedness. Results show that mXOF can estimate the relatedness reasonably
between multiple tasks to aid the learning performance with the dynamic feature
transferring.Comment: accepted by The Genetic and Evolutionary Computation Conference
(GECCO 2020
Étude du rôle des effecteurs de type III évolutivement conservés chez deux bactéries colonisatrices du xylème
Xanthomonas campestris pv. campestris (Xcc), l'agent responsable de la pourriture noire chez les Brassicacées, et Ralstonia pseudosolanacearum (Rps), l'agent responsable du flétrissement bactérien chez une large variété d'espèces végétales, sont toutes deux des bactéries dévastatrices s'établissant dans le xylème de leur hôte. Malgré les différences dans leur gamme d'hôtes, leur stratégie infectieuse et leur répertoire d'effecteurs, les souches de référence Xcc8004 et RpsGMI1000 partagent six effecteurs de type III (ET3) définis comme orthologues. Cela offre une excellente opportunité de mener des études comparatives puisqu'il est probable que ces six ET3 ciblent des processus orthologues chez les plantes hôtes, notamment chez Arabidopsis thaliana qui est un hôte commun aux deux pathogènes. Dans une première partie de mon projet de thèse, de potentielles protéines d'Arabidopsis interagissant avec les ET3 de Xcc8004 et RpsGMI1000 ont été identifiées grâce à un criblage par double hybride. Nous avons ainsi pu comparer nos résultats avec des criblages similaires réalisés chez d'autres phytopathogènes afin d'obtenir une vision plus exhaustive de la façon dont les effecteurs interagissent avec le protéome de l'hôte. Cela a permis de générer une base de données interactive intégrant nos résultats ainsi que des données interactomiques Arabidopsis-ET3 déjà publiées : "EffectorK" (www.effectork.org). Dans une deuxième partie du projet, les effets in planta de chacun des ET3 ont été étudiés en générant des lignées transgéniques inductibles d'Arabidopsis. En croisant les résultats de ces deux premières parties, les ET3 candidats les plus prometteurs ont été sélectionnés pour conduire des expériences de caractérisation fonctionnelle, ce qui a constitué la dernière partie de mon travail. Ce projet participe à une meilleure compréhension du rôle biologique des ET3 conservés parmi les bactéries colonisatrices du xylème.Xanthomonas campestris pv. campestris (Xcc), the causal agent of black rot disease on Brassicaceae, and Ralstonia pseudosolanacearum (Rps), the causal agent of bacterial wilt on a wide variety of hosts, are both devastating xylem-colonizing bacteria. Despite their differences in host range, infection strategy and effectome repertoire, reference strains Xcc8004 and RpsGMI1000 share six orthologous type III effectors (T3Es). This provides a valuable opportunity for comparative studies as it is likely that these orthologous T3Es target orthologous processes in the host plants, with focus on Arabidopsis thaliana, common host of both pathogens. In a first part of my PhD project, putative Arabidopsis interactors of Xcc8004 and RpsGMI1000 T3Es were identified by yeast two-hybrid at the effectome-scale. This allowed us to compare our results with similarly screened plant pathogens to acquire a global image of how effectors interfere with the host proteome. This led to the generation of an interactive knowledge database integrating our results with published Arabidopsis-effector interactomic data: "EffectorK" (www.effectork.org). In a second part of the project, the in planta effects of single T3Es were dissected by generating inducible transgenic Arabidopsis lines. Combining results from these two parts, the most promising T3E candidates were selected for further functional characterization, forming the last part of my work. Altogether, this project contributes to a better understanding of the biological role of conserved T3Es among xylem-colonizing bacteria
Constructing Complexity-efficient Features in XCS with Tree-based Rule Conditions
A major goal of machine learning is to create techniques that abstract away
irrelevant information. The generalisation property of standard Learning
Classifier System (LCS) removes such information at the feature level but not
at the feature interaction level. Code Fragments (CFs), a form of tree-based
programs, introduced feature manipulation to discover important interactions,
but they often contain irrelevant information, which causes structural
inefficiency. XOF is a recently introduced LCS that uses CFs to encode building
blocks of knowledge about feature interaction. This paper aims to optimise the
structural efficiency of CFs in XOF. We propose two measures to improve
constructing CFs to achieve this goal. Firstly, a new CF-fitness update
estimates the applicability of CFs that also considers the structural
complexity. The second measure we can use is a niche-based method of generating
CFs. These approaches were tested on Even-parity and Hierarchical problems,
which require highly complex combinations of input features to capture the data
patterns. The results show that the proposed methods significantly increase the
structural efficiency of CFs, which is estimated by the rule "generality rate".
This results in faster learning performance in the Hierarchical Majority-on
problem. Furthermore, a user-set depth limit for CF generation is not needed as
the learning agent will not adopt higher-level CFs once optimal CFs are
constructed
Metadata-driven data integration
Cotutela: Universitat Politècnica de Catalunya i Université Libre de Bruxelles, IT4BI-DC programme for the joint Ph.D. degree in computer science.Data has an undoubtable impact on society. Storing and processing large amounts of available data is currently one of the key success factors for an organization. Nonetheless, we are recently witnessing a change represented by huge and heterogeneous amounts of data. Indeed, 90% of the data in the world has been generated in the last two years. Thus, in order to carry on these data exploitation tasks, organizations must first perform data integration combining data from multiple sources to yield a unified view over them. Yet, the integration of massive and heterogeneous amounts of data requires revisiting the traditional integration assumptions to cope with the new requirements posed by such data-intensive settings.
This PhD thesis aims to provide a novel framework for data integration in the context of data-intensive ecosystems, which entails dealing with vast amounts of heterogeneous data, from multiple sources and in their original format. To this end, we advocate for an integration process consisting of sequential activities governed by a semantic layer, implemented via a shared repository of metadata. From an stewardship perspective, this activities are the deployment of a data integration architecture, followed by the population of such shared metadata. From a data consumption perspective, the activities are virtual and materialized data integration, the former an exploratory task and the latter a consolidation one. Following the proposed framework, we focus on providing contributions to each of the four activities.
We begin proposing a software reference architecture for semantic-aware data-intensive systems. Such architecture serves as a blueprint to deploy a stack of systems, its core being the metadata repository. Next, we propose a graph-based metadata model as formalism for metadata management. We focus on supporting schema and data source evolution, a predominant factor on the heterogeneous sources at hand. For virtual integration, we propose query rewriting algorithms that rely on the previously proposed metadata model. We additionally consider semantic heterogeneities in the data sources, which the proposed algorithms are capable of automatically resolving. Finally, the thesis focuses on the materialized integration activity, and to this end, proposes a method to select intermediate results to materialize in data-intensive flows. Overall, the results of this thesis serve as contribution to the field of data integration in contemporary data-intensive ecosystems.Les dades tenen un impacte indubtable en la societat. La capacitat d’emmagatzemar i processar grans quantitats de dades disponibles és avui en dia un dels factors claus per l’èxit d’una organització. No obstant, avui en dia estem presenciant un canvi representat per grans volums de dades heterogenis. En efecte, el 90% de les dades mundials han sigut generades en els últims dos anys. Per tal de dur a terme aquestes tasques d’explotació de dades, les organitzacions primer han de realitzar una integració de les dades, combinantles a partir de diferents fonts amb l’objectiu de tenir-ne una vista unificada d’elles. Per això, aquest fet requereix reconsiderar les assumpcions tradicionals en integració amb l’objectiu de lidiar amb els requisits imposats per aquests sistemes de tractament massiu de dades.
Aquesta tesi doctoral té com a objectiu proporcional un nou marc de treball per a la integració de dades en el context de sistemes de tractament massiu de dades, el qual implica lidiar amb una gran quantitat de dades heterogènies, provinents de múltiples fonts i en el seu format original. Per això, proposem un procés d’integració compost d’una seqüència d’activitats governades per una capa semà ntica, la qual és implementada a partir d’un repositori de metadades compartides. Des d’una perspectiva d’administració, aquestes activitats són el desplegament d’una arquitectura d’integració de dades, seguit per la inserció d’aquestes metadades compartides. Des d’una perspectiva de consum de dades, les activitats són la integració virtual i materialització de les dades, la primera sent una tasca exploratòria i la segona una de consolidació.
Seguint el marc de treball proposat, ens centrem en proporcionar contribucions a cada una de les quatre activitats. La tesi inicia proposant una arquitectura de referència de software per a sistemes de tractament massiu de dades amb coneixement semà ntic. Aquesta arquitectura serveix com a planell per a desplegar un conjunt de sistemes, sent el repositori de metadades al seu nucli.
Posteriorment, proposem un model basat en grafs per a la gestió de metadades. Concretament, ens centrem en donar suport a l’evolució d’esquemes i fonts de dades, un dels factors predominants en les fonts de dades heterogènies considerades. Per a l’integració virtual, proposem algorismes de rescriptura de consultes que usen el model de metadades previament proposat. Com a afegitó, considerem heterogeneïtat semà ntica en les fonts de dades, les quals els algorismes de rescriptura poden resoldre automà ticament. Finalment, la tesi es centra en l’activitat d’integració materialitzada. Per això proposa un mètode per a seleccionar els resultats intermedis a materialitzar un fluxes
de tractament intensiu de dades. En general, els resultats d’aquesta tesi serveixen com a contribució al camp d’integració de dades en els ecosistemes de tractament massiu de dades contemporanisLes données ont un impact indéniable sur la société. Le stockage et le traitement de grandes quantités de données disponibles constituent actuellement l’un des facteurs clés de succès d’une entreprise. Néanmoins, nous assistons récemment à un changement représenté par des quantités de données massives et hétérogènes. En effet, 90% des données dans le monde ont été générées au cours des deux dernières années. Ainsi, pour mener à bien ces tâches d’exploitation des données, les organisations doivent d’abord réaliser une intégration des données en combinant des données provenant de sources multiples pour obtenir une vue unifiée de ces dernières. Cependant, l’intégration
de quantités de données massives et hétérogènes nécessite de revoir les hypothèses d’intégration traditionnelles afin de faire face aux nouvelles exigences posées par les systèmes de gestion de données massives.
Cette thèse de doctorat a pour objectif de fournir un nouveau cadre pour l’intégration de données dans le contexte d’écosystèmes à forte intensité de données, ce qui implique de traiter de grandes quantités de données hétérogènes, provenant de sources multiples et dans leur format d’origine. À cette fin, nous préconisons un processus d’intégration constitué d’activités séquentielles régies par une couche sémantique, mise en oeuvre via un dépôt partagé de métadonnées. Du point de vue de la gestion, ces activités consistent à déployer une architecture d’intégration de données, suivies de la population de métadonnées partagées. Du point de vue de la consommation de données, les activités sont l’intégration de données virtuelle et matérialisée, la première étant une tâche exploratoire et la seconde, une tâche de consolidation.
Conformément au cadre proposé, nous nous attachons à fournir des contributions à chacune des quatre activités. Nous commençons par proposer une architecture logicielle de référence pour les systèmes de gestion de données massives et à connaissance sémantique. Une telle architecture
consiste en un schéma directeur pour le déploiement d’une pile de systèmes, le dépôt de métadonnées étant son composant principal. Ensuite, nous proposons un modèle de métadonnées basé sur des graphes comme formalisme pour la gestion des métadonnées. Nous mettons l’accent sur la prise en charge de l’évolution des schémas et des sources de données, facteur prédominant des sources hétérogènes sous-jacentes. Pour l’intégration virtuelle, nous proposons des algorithmes de réécriture de requêtes qui s’appuient sur le modèle de métadonnées proposé précédemment. Nous considérons en outre les hétérogénéités sémantiques dans les sources de données, que les
algorithmes proposés sont capables de résoudre automatiquement. Enfin, la thèse se concentre sur l’activité d’intégration matérialisée et propose à cette fin une méthode de sélection de résultats intermédiaires à matérialiser dans des flux des données massives. Dans l’ensemble, les résultats de cette thèse constituent une contribution au domaine de l’intégration des données dans les écosystèmes contemporains de gestion de données massivesPostprint (published version