1,165 research outputs found
Computational techniques to interpret the neural code underlying complex cognitive processes
Advances in large-scale neural recording technology have significantly improved the
capacity to further elucidate the neural code underlying complex cognitive processes.
This thesis aimed to investigate two research questions in rodent models. First, what
is the role of the hippocampus in memory and specifically what is the underlying
neural code that contributes to spatial memory and navigational decision-making.
Second, how is social cognition represented in the medial prefrontal cortex at the
level of individual neurons. To start, the thesis begins by investigating memory and
social cognition in the context of healthy and diseased states that use non-invasive
methods (i.e. fMRI and animal behavioural studies). The main body of the thesis
then shifts to developing our fundamental understanding of the neural mechanisms
underpinning these cognitive processes by applying computational techniques to ana lyse stable large-scale neural recordings. To achieve this, tailored calcium imaging
and behaviour preprocessing computational pipelines were developed and optimised
for use in social interaction and spatial navigation experimental analysis. In parallel,
a review was conducted on methods for multivariate/neural population analysis. A
comparison of multiple neural manifold learning (NML) algorithms identified that non linear algorithms such as UMAP are more adaptable across datasets of varying noise
and behavioural complexity. Furthermore, the review visualises how NML can be
applied to disease states in the brain and introduces the secondary analyses that
can be used to enhance or characterise a neural manifold. Lastly, the preprocessing
and analytical pipelines were combined to investigate the neural mechanisms in volved in social cognition and spatial memory. The social cognition study explored
how neural firing in the medial Prefrontal cortex changed as a function of the social
dominance paradigm, the "Tube Test". The univariate analysis identified an ensemble
of behavioural-tuned neurons that fire preferentially during specific behaviours such
as "pushing" or "retreating" for the animal’s own behaviour and/or the competitor’s
behaviour. Furthermore, in dominant animals, the neural population exhibited greater
average firing than that of subordinate animals. Next, to investigate spatial memory,
a spatial recency task was used, where rats learnt to navigate towards one of three
reward locations and then recall the rewarded location of the session. During the
task, over 1000 neurons were recorded from the hippocampal CA1 region for five rats
over multiple sessions. Multivariate analysis revealed that the sequence of neurons encoding an animal’s spatial position leading up to a rewarded location was also active
in the decision period before the animal navigates to the rewarded location. The result
posits that prospective replay of neural sequences in the hippocampal CA1 region
could provide a mechanism by which decision-making is supported
Recommended from our members
FRET-based dynamic structural biology: Challenges, perspectives and an appeal for open-science practices
Single-molecule FRET (smFRET) has become a mainstream technique for studying biomolecular structural dynamics. The rapid and wide adoption of smFRET experiments by an ever-increasing number of groups has generated significant progress in sample preparation, measurement procedures, data analysis, algorithms and documentation. Several labs that employ smFRET approaches have joined forces to inform the smFRET community about streamlining how to perform experiments and analyze results for obtaining quantitative information on biomolecular structure and dynamics. The recent efforts include blind tests to assess the accuracy and the precision of smFRET experiments among different labs using various procedures. These multi-lab studies have led to the development of smFRET procedures and documentation, which are important when submitting entries into the archiving system for integrative structure models, PDB-Dev. This position paper describes the current ‘state of the art’ from different perspectives, points to unresolved methodological issues for quantitative structural studies, provides a set of ‘soft recommendations’ about which an emerging consensus exists, and lists openly available resources for newcomers and seasoned practitioners. To make further progress, we strongly encourage ‘open science’ practices
Small molecule specifically inhibiting microglial nitric oxide release could become a potential treatment for neuroinflammation
Microglia are the immune effector cells of the central nervous system (CNS) and react to pathologic events with a complex process including the release of nitric oxide (NO). NO is a free radical, which is toxic for all cells at high concentrations. To target an exaggerated NO release, we tested a library of 16 544 chemical compounds for their effect on lipopolysaccharide (LPS)-induced NO release in cell line and primary neonatal microglia. We identified a compound (C1) which significantly reduced NO release in a dose-dependent manner, with a low IC50 (252 nM) and no toxic side effects in vitro or in vivo. Target finding strategies such as in silico modelling and mass spectroscopy hint towards a direct interaction between C1 and the nitric oxide synthase making C1 a great candidate for specific intra-cellular interaction with the NO producing machinery
Design of new algorithms for gene network reconstruction applied to in silico modeling of biomedical data
Programa de Doctorado en BiotecnologÃa, IngenierÃa y TecnologÃa QuÃmicaLÃnea de Investigación: IngenierÃa, Ciencia de Datos y BioinformáticaClave Programa: DBICódigo LÃnea: 111The root causes of disease are still poorly understood. The success of current therapies is limited because persistent diseases are frequently treated based on their symptoms rather than the underlying cause of the disease. Therefore, biomedical research is experiencing a technology-driven shift to data-driven holistic approaches to better characterize the molecular mechanisms causing disease. Using omics data as an input, emerging disciplines like network biology attempt to model the relationships between biomolecules. To this effect, gene co- expression networks arise as a promising tool for deciphering the relationships between genes in large transcriptomic datasets. However, because of their low specificity and high false positive rate, they demonstrate a limited capacity to retrieve the disrupted mechanisms that lead to disease onset, progression, and maintenance. Within the context of statistical modeling, we dove deeper into the reconstruction of gene co-expression networks with the specific goal of discovering disease-specific features directly from expression data. Using ensemble techniques, which combine the results of various metrics, we were able to more precisely capture biologically significant relationships between genes. We were able to find de novo potential disease-specific features with the help of prior biological knowledge and the development of new network inference techniques.
Through our different approaches, we analyzed large gene sets across multiple samples and used gene expression as a surrogate marker for the inherent biological processes, reconstructing robust gene co-expression networks that are simple to explore. By mining disease-specific gene co-expression networks we come up with a useful framework for identifying new omics-phenotype associations from conditional expression datasets.In this sense, understanding diseases from the perspective of biological network perturbations will improve personalized medicine, impacting rational biomarker discovery, patient stratification and drug design, and ultimately leading to more targeted therapies.Universidad Pablo de Olavide de Sevilla. Departamento de Deporte e Informátic
Caractérisation minéralogique quantitative automatisée en microscopie optique et applications à l’étude de minerais dans le cadre d’une approche géométallurgique.
La caractérisation minéralogique est essentielle pour la caractérisation des différents produits d’un gisement (lithologie, minerai, stérile, résidu, etc.). Elle peut procurer énormément d’informations pertinentes pour les différents aspects de la mine (exploration, traitement minéral, gestion environnementale des rejets miniers). Cependant, la caractérisation minéralogique souffre aujourd’hui d’une réputation à la fois longue, fastidieuse et couteuse de la part de l’industrie minière. Cette industrie s’est ainsi vue progressivement abandonner l’approche minéralogique pour la caractérisation de leurs gisements. Avec les nouveaux défis technico-économiques apparaissant au sein des gisements (teneurs de plus en plus faibles, extraction de plus en plus profonde, gestion intégrée des rejets miniers et valorisation de nouveaux types de gisement), une nouvelle approche géométallurgique s’est alors développée dans l’industrie. Cette nouvelle vision de la mine consiste à intégrer les variabilités, notamment minéralogiques, des gisements afin de l’intégrer le plus en amont possible dans le développement du projet minier. Le but est de quitter l’approche en silo qu’effectue l’industrie pour permettre plus de communication entre les différents départements d’une mine (exploration, ingénierie, production, environnement) et ainsi permettre une optimisation technico-économique de l’exploitation tout en réduisant les risques techniques et opérationnels. Il s’avère que la caractérisation minéralogique est redevenue une caractérisation indispensable pour cette nouvelle vision géométallurgique de la mine, notamment parce qu’elle peut constituer un langage commun entre les différents départements de la mine. La caractérisation minéralogique permet effectivement de fournir des quantifications de paramètres, notamment de texture (comprenant la granulo-minéralogie, degré de libération/d’exposition et association), sur les différents produits de la mine qui constituent très souvent les variables critiques régissant la modélisation géométallurgique d’un gisement. La géométallurgie met ainsi en avant la pertinence des outils de caractérisations minéralogiques automatisées de type microscope électronique à balayage associé à la spectroscopie en énergie dispersive (MEB-EDS), comme le système QEMSCAN®. Cependant, ces outils, bien que récemment démocratisés, restent encore très dispendieux et contraignants pour l’industrie minière. De plus, ils nécessitent une expertise poussée pour leur utilisation au quotidien au sein de la mine. Par conséquent, la caractérisation minéralogique automatisée reste encore relativement anecdotique au sein des différentes opérations de développement d’une exploitation minière, alors qu’elle reste très souvent indispensable pour l’approche géométallurgique de la mine. Le microscope optique automatisée (MOA) représente quant à lui un outil alternatif plus accessible financièrement que les systèmes types MEB-EDS et permet une caractérisation des minéraux opaques très souvent valorisables (sulfures, oxydes, éléments natifs, alliages) moins contraignante, nécessitant une expertise moins poussée que son homologue électronique. C’est dans ce contexte que les travaux de cette présente thèse se sont développés. L’objectif général a ainsi été de développer et d’améliorer des approches et techniques de caractérisation minéralogique abordables, fiables et précises via l’outil de MOA. Le but était de proposer une caractérisation minéralogique automatisée plus accessible pour l’industrie minière, selon une approche géométallurgique.
Cette présente thèse s’est ainsi construite autour de trois axes de recherche : le développement de protocoles de préparations de section polie représentatifs, l’amélioration de techniques d’imagerie optique sous MOA et l’étude comparative et cas d’applications en contexte géométallurgique de l’outil afin de prouver sa fiabilité et sa pertinence.
Une nouvelle méthode d’échantillonnage a ainsi été développée afin de décider du nombre approprié de sections polies qui doivent être préparées en fonction de la classe granulométrique considérée. Le but est d’obtenir une représentativité suffisante pour les analyses de minéralogie automatisée. Pour illustrer cette méthode, deux protocoles d'échantillonnage (sous forme de grain à des fins de caractérisation texturales et sous forme de poudre) d'un minerai sulfuré typique théorique, incluant une préparation granulométrique (sizing), sont présentés. Une nouvelle méthode de calcul de la variance de l'erreur fondamentale liée à l'échantillonnage a ainsi été proposée. Ces protocoles d'échantillonnage sont une adaptation de la ligne de sécurité dérivée de la théorie d'échantillonnage de Pierre Gy et sont à ajuster en fonction de la connaissance des propriétés intrinsèques du matériau considéré. La méthode peut être très utile pour mieux anticiper le manque de représentativité des données minéralogiques fournies par les outils de minéralogie automatisé liées à la préparation d’échantillonnage.
Au cours de ces travaux de doctorat, une nouvelle résine a été aussi découverte pour la préparation de section polie : la résine acrylique. Cette nouvelle résine a été comparée aux autres résines communément utilisées pour la préparation de section polie : la résine époxy et la résine dite carbon black (assimilé à la résine époxy mélangé avec du graphite). Cette comparaison a compris des mesures rhéologiques ainsi que des analyses par MOA. L’objectif a été de vérifier si une composition minéralogique fiable et sans biais est possible sous MOA avec cette nouvelle résine, attestant que les particules minérales n’ont pas subi une ségrégation préférentielle au sein de la section polie. Pour ce faire, des mélanges de poudres minérales standard ont été préparées en utilisant différents minéraux opaques purs à une fraction granulométrique calibrée entre 25 et 75 μm. Les résultats indiquent que le comportement rhéologique de la résine acrylique à durcissement rapide permet d'obtenir une composition minérale précise tout en évitant toute sédimentation préférentielle des particules par rapport aux autres résines étudiées.
La caractérisation minéralogique automatisée nécessite d’obtenir des résultats de quantification non biaisés. Cependant, le MOA ne permet pas de détecter les minéraux transparents (ou de gangue) lors d'une analyse par microscopie optique en lumière réfléchie, car les réflectances de la résine et des minéraux de gangue sont très proches. De nouveaux travaux se sont alors concentrés à proposer une nouvelle méthode innovante pour détecter automatiquement toutes les particules minérales (y compris les particules transparentes) sur une section polie en résine acrylique par imagerie optique réfléchie en utilisant un algorithme d'apprentissage profond (deep learning). Pour ce faire, plusieurs poudres de minerai et de mélanges de standards de minéraux ont été montées en sections polies avec résine acrylique à deux tailles de particules différentes : < 1mm et P80~75 μm. Un maximum d'images optiques a été acquis avec un MOA sur ces sections polies pour entraîner et tester l'algorithme d'apprentissage profond à détecter les particules minérales. Les résultats montrent que l'algorithme d'apprentissage profond détecte facilement toutes les particules minérales dans le motif bullé caractéristique de la matrice de la résine acrylique, ce qui permet de bien différencier les minéraux de gangue sous microscopie optique réfléchie pour la détermination de la composition modale fiable des échantillons étudiés.
De plus, les travaux ont pu permettre le développement de l’imagerie hyperspectrale optique afin de permettre une identification minéralogique plus efficace en MOA comparé à ce que proposent les systèmes actuels utilisant l’analyse multispectrale. La synchronisation entre une caméra hyperspectrale et un système de MOA a pu permettre l’acquisition linéaire de cubes hyperspectraux sur différents minéraux opaques. À l’aide de ces mesures brutes hyperspectrales, une base de données de réflectances hyperspectrales a pu être établie. À partir de cette base de données, une procédure supervisée de classification a été exécutée sur différents cubes hyperspectraux issus de l’analyse sur différents échantillons de minerais et standards minéralogiques (mise en section polie) par le dispositif expérimental. La procédure consistait à extraire des images monochromatiques à des longueurs d’onde judicieusement choisies sur ces cubes hyperspectraux bruts afin d’y exécuter des analyses d’images basiques associées à une méthode de classification booléenne pour obtenir des images classifiées minéralogiquement. Les résultats indiquent que cette procédure basique permet une classification minéralogique des images optiques propres et efficaces à partir de mesures hyperspectrales optiques.
Les travaux de ce présent doctorat se sont ensuite focalisés sur différentes études comparatives et études de cas d’applications en contexte géométallurgique de la MOA, des études encore manquantes dans le domaine. Le projet Dumont Nickel a ainsi été particulièrement étudié, notamment parce que le gisement nécessite une approche géométallurgique du fait de sa métallogénie particulière. Le défi de développement d’un projet tel que Dumont Nickel consiste à pouvoir quantifier le nickel dit métallurgiquement récupérable à l’aide d’une méthode de quantification minéralogique abordable. Ces travaux proposent de pouvoir quantifier la minéralogie des minerais du gisement pour les futures opérations minières en utilisant le MOA. L’objectif a été de caractériser quatre échantillons de minerais représentatifs des quatre domaines géométallurgiques du gisement par MOA. Ces résultats ont été comparés aux données de quantification minéralogique existantes pour les mêmes échantillons acquis par QEMSCAN®. Les résultats de quantifications minéralogiques obtenus avec les deux techniques ont été comparés en mettant l'accent sur la distribution minéralogique du nickel dans les minéraux opaques. Cette étude comparative prouve l'efficacité de la MOA à des fins de quantification minéralogique telle qu'appliquée aux échantillons étudiés du projet Dumont Nickel. Cette procédure de quantification minéralogique des minéraux opaques a été ensuite poursuivie sur 12 autres échantillons du gisement. Le but a été de vérifier si le MOA attribue les mêmes domaines géométallurgiques que les analyses QEMSCAN® sur ces mêmes échantillons, selon la quantification des minéraux opaques qu’il permet. Les résultats montrent que le MOA est une alternative fiable au QEMSCAN® et peut être utilisé pour l'attribution de domaine pour le projet Dumont Nickel. Néanmoins, ces études comparatives en contexte géométallurgique ont permis de mettre en exergue les limites du système de MOA utilisé au cours du doctorat. Ces limites sont l’impossibilité pour le système de pouvoir détecter les particules transparentes (limite qui a fait l’objet de travaux au cours du doctorat) et de pouvoir les identifier, mais aussi d’autres limites de l’analyse multispectrale optique que propose le système (aberration chromatique). Une troisième étude comparative sur les différents concentrés de flottations du concentrateur LaRonde a aussi pu prouver que le système de MOA utilisé donne des résultats de quantification minéralogique proche du système QEMSCAN®. Cette dernière étude a aussi mis un avant une des limites de l’analyse multispectrale du système : le phénomène d’effet de bordure, expliquant les différences de quantification obtenue entre les deux techniques homologues.
Enfin, afin de répondre aux manques d’études de cas d’applications de la MOA, le doctorat a recommandé plusieurs méthodologies d’intégration de la MOA à des fins géométallurgiques dans un contexte général d'un gisement de sulfure polymétallique/aurifère. Les principales étapes des projets miniers (exploration/géologie, faisabilité/programme géométallurgique, exploitation/production et gestion des rejets miniers) ont été utilisées pour illustrer les différentes méthodes proposées. La MOA permet ainsi d'obtenir des données minéralogiques pertinentes dès les premières étapes d'un projet minier et d'intégrer la minéralogie opérationnelle dans les processus de développement d’un circuit de traitement. De nombreux exemples illustrant la quantification minéralogique par MOA ont ainsi été fournis pour chaque étape du cycle minier, ce qui permet d'étayer la définition de différents domaines géométallurgique et géoenvironnementale d'un gisement
Proteomic Analysis of the Unfolded Protein Response in Melanoma
Despite enormous advancements made in the last decade in the treatment of metastatic melanoma, due to drug resistance and drug toxicities, new therapies and treatment strategies are needed. Additionally, there are no prognostic biomarkers for metastatic disease able to predict outcome. Thirty-two potential biomarkers were analysed by selected reaction monitoring (SRM) in 30 stage III melanoma patients. A 14-protein panel was discovered, able to predict patients likely to have poor outcome and therefore potentially benefit from aggressive therapeutic strategies.
From the above study, the Unfolded Protein Response (UPR) was revealed to be a major cellular pathway up-regulated in patients with poor outcome. The UPR is a cellular stress response, which is initiated by a build-up of unfolded protein in the endoplasmic reticulum (ER). Increased activation of the UPR is associated with several cancers however, the mechanisms used to promote tumour progression and metastases are not well understood.
To characterise this stress response, the UPR was activated in melanoma cell line models. Using quantitative mass spectrometry 64 proteins were identified as differentially abundant with increased UPR activation. Among them, eight UPR-associated proteins were validated by SRM, identifying these proteins as core modulators of the UPR. An in silico analysis of the eight UPR-associated proteins in pan-cancer patient data across 16 solid tumour types revealed the eight UPR-associated proteins were markers of poor survival across cancer types. The combined data demonstrates the UPR is a major contributor to cancer progression.
The study contributes to our knowledge of melanoma biology by elucidating the broad impact of the UPR on several cellular pathways and mechanisms that would promote tumour growth and increase the metastatic potential of melanoma. Furthermore, novel UPR drug targets were identified, including cooperative pathways that could be targeted in combinatorial therapie
ACARORUM CATALOGUS IX. Acariformes, Acaridida, Schizoglyphoidea (Schizoglyphidae), Histiostomatoidea (Histiostomatidae, Guanolichidae), Canestrinioidea (Canestriniidae, Chetochelacaridae, Lophonotacaridae, Heterocoptidae), Hemisarcoptoidea (Chaetodactylidae, Hyadesiidae, Algophagidae, Hemisarcoptidae, Carpoglyphidae, Winterschmidtiidae)
The 9th volume of the series Acarorum Catalogus contains lists of mites of 13 families, 225 genera and 1268 species of the superfamilies Schizoglyphoidea, Histiostomatoidea, Canestrinioidea and Hemisarcoptoidea. Most of these mites live on insects or other animals (as parasites, phoretic or commensals), some inhabit rotten plant material, dung or fungi. Mites of the families Chetochelacaridae and Lophonotacaridae are specialised to live with Myriapods (Diplopoda). The peculiar aquatic or intertidal mites of the families Hyadesidae and Algophagidae are also included.Publishe
Roadmap for optical tweezers
ArtÃculo escrito por un elevado número de autores, solo se referencian el que aparece en primer lugar, el nombre del grupo de colaboración, si le hubiere, y los autores pertenecientes a la UAMOptical tweezers are tools made of light that enable contactless pushing, trapping, and manipulation of objects, ranging from atoms to space light sails. Since the pioneering work by Arthur Ashkin in the 1970s, optical tweezers have evolved into sophisticated instruments and have been employed in a broad range of applications in the life sciences, physics, and engineering. These include accurate force and torque measurement at the femtonewton level, microrheology of complex fluids, single micro- and nano-particle spectroscopy, single-cell analysis, and statistical-physics experiments. This roadmap provides insights into current investigations involving optical forces and optical tweezers from their theoretical foundations to designs and setups. It also offers perspectives for applications to a wide range of research fields, from biophysics to space explorationEuropean Commission (Horizon 2020, Project No. 812780
Biocatalytic Applications in Biotechnology
At present, the increasing demand for novel biotechnological products is supported through the continuous development of biocatalytic applications. As a consequence, the progress of research regarding enzymatic catalysis in aqueous, non-aqueous, organic (polar or non-polar), and/or non-solvent media is decisive. Experimental design methods, which also may comprise in silico studies, the design of specific reactors and conditions, the reactions of significant chemical and/or biochemical processes that are relevant to industrial production, enzyme kinetic methods, the investigation of enzymatic mechanisms and the use of immobilized enzymes and/or microbial cells on various inert matrices, are all useful. A plethora of enzymes of several classes, which may potentially be used as biocatalysts in biotechnological applications, are available. Among these enzymes, the more common are oxidoreductases (laccase, catalase, glucose oxidase, etc.), hydrolases (amylases, lipases, proteases, amidases, cellulases, esterases, etc.), isomerases (epimerases, topoisomerases, mutases, etc.), and others. By means of the aforementioned biocatalysts and the utilization of specific biotechnological methods, important, cost-effective, sustainable, and environmentally friendly processes have been applied for the synthesis and/or the conversion of a huge number of market-required products
- …