5 research outputs found
Recommended from our members
Spatial variation of fine particulate matter levels in Nairobi before and during the COVID-19 curfew: implications for environmental justice
Abstract: The temporary decrease of fine particulate matter (PM2.5) concentrations in many parts of the world due to the COVID-19 lockdown spurred discussions on urban air pollution and health. However there has been little focus on sub-Saharan Africa, as few African cities have air quality monitors and if they do, these data are often not publicly available. Spatial differentials of changes in PM2.5 concentrations as a result of COVID also remain largely unstudied. To address this gap, we use a serendipitous mobile air quality monitoring deployment of eight Sensirion SPS 30 sensors on motorbikes in the city of Nairobi starting on 16 March 2020, before a COVID-19 curfew was imposed on 25 March and continuing until 5 May 2020. We developed a random-forest model to estimate PM2.5 surfaces for the entire city of Nairobi before and during the COVID-19 curfew. The highest PM2.5 concentrations during both periods were observed in the poor neighborhoods of Kariobangi, Mathare, Umoja, and Dandora, located to the east of the city center. Changes in PM2.5 were heterogeneous over space. PM2.5 concentrations increased during the curfew in rapidly urbanizing, the lower-middle-class neighborhoods of Kahawa, Kasarani, and Ruaraka, likely because residents switched from LPG to biomass fuels due to loss of income. Our results indicate that COVID-19 and policies to address it may have exacerbated existing air pollution inequalities in the city of Nairobi. The quantitative results are preliminary, due to sampling limitations and measurement uncertainties, as the available data came exclusively from low-cost sensors. This research serves to highlight that spatial data that is essential for understanding structural inequalities reflected in uneven air pollution burdens and differential impacts of events like the COVID pandemic. With the help of carefully deployed low-cost sensors with improved spatial sampling and at least one reference-quality monitor for calibration, we can collect data that is critical for developing targeted interventions that address environmental injustice in the African context
Recommended from our members
Printing protein-engineered paper for biosensors
The use of paper as a sensing platform has great potential for point-of-care diagnostics in low-resource settings. However, there is a need for approaches that enable a higher level of control and customisation of the paper properties and reduce the cost of production and immobilisation of bioreagents onto paper. This thesis explores whether introducing digital printing into papermaking in combination with the recombinant protein production of paper-binding bioreagents could provide an accessible, scalable tool for the fabrication of affordable paper-based microfluidic biosensors with customised and varying paper properties.
A novel printing method based on the localised vacuum-driven filtration of fibre suspensions (‘vacuum-driven printing’) was explored for the direct formation and patterning of engineered paper. An analytical model based on incompressible cake filtration theory was derived to predict the final thickness of the printed paper as a function of printing parameters and showed good agreement with the experimental data. This model enabled the rational design of complex 2D paper patterns with controlled and varying thickness profile that could be formed in a single printing process.
The recombinant fusion of a cellulose-binding domain (CBD) into the protein reagent enabled its one-step immobilisation and purification onto paper fibres directly from the crude lysate, significantly reducing the cost and number of downstream processing steps required for the production of the bioreagent. The specific immobilisation provided by the CBD helped retain the protein’s diagnostic activity during air drying and long-term dry storage, even after four months at 20-37°C, when compared to direct physisorption of the protein reagent onto paper. The protein-bound fibres could be directly patterned with the vacuum-driven printing technique into the detection zone of a paper-based assay, forming bioactive paper.
A proof-of-concept paper-based microfluidic biosensor was fabricated in a single vacuum-driven printing process, using unmodified paper fibres to form microfluidic channels of varying thickness, and protein-bound fibres to form bioactive paper at the detection zone of the assay. This research demonstrated a simplified, accessible, and lower-cost pathway to the production of paper-based biosensors with customised properties
Extensión de la representación de un yo para una arquitectura de sistema autónomo
En este Trabajo Fin de Grado (TFG), encuadrado en el proyecto a largo plazo ASys del Laboratorio de Sistemas Autónomos de la UPM, se inicia la primera etapa de la construcción de un yo artificial en un robot. Se tienen dos objetivos principales: la identificación de los requisitos necesarios para la implementación de un yo en un sistema inteligente y la formulación de un modelo de referencia en base a dichos requisitos para una arquitectura cognitiva. No existe un consenso en la definición del concepto del yo. En general, las definiciones dadas entienden el yo como un proceso multifacético, es decir, compuesto de numerosos aspectos, que está en relación con el modelado del propio sistema y la autoconsciencia.
Además, la ambigüedad con la que se utiliza el término yo no ayuda a la clarificación del concepto. Se tiene, por un lado, el concepto en sÃ, entendido como un contenido mental y un sentimiento de ser uno mismo, y, por otro, un conjunto de mecanismos que permiten generar dicho concepto y utilizarlo en la generación de comportamiento. Se lleva a cabo la distinción, por lo tanto, entre los denominados yo sentido y yo operacional, respectivamente. La necesidad de la incorporación de un yo a un sistema artificial se hace patente en cualquier situación en la que resulte de utilidad que el sistema posea un conocimiento sobre su estado interno y su propio funcionamiento. Estas situaciones van desde sistemas complejos de software que tienen que explicar a un humano las decisiones que han tomado, la comunicación y coordinación entre agentes y la interacción humano-robot en los robots sociales, hasta máquinas capaces de autoconfigurarse y de percibir comportamientos anómalos en sà mismas, de forma que puedan autodiagnosticarse e, incluso, autorrepararse. Si se dispone de procesos que permitan observar el proceso de razonamiento y reflexionar sobre el propio conocimiento, es decir, si se tiene un nivel metacognitivo, se podrá mejorar la calidad de las decisiones tomadas al conocer las fuerzas y debilidades del propio sistema.
Existen implementaciones explÃcitas de un yo en la actualidad, siguiendo una definición concreta, tanto en modelos particulares como en arquitecturas cognitivas de amplia utilización, como LIDA. Adicionalmente, se consideran algunos modelos que no hacen referencia al término yo en su estructura de control, pero que implementan algunas de las caracterÃsticas propias del yo.
Tras el estudio del estado del arte, se entiende que el yo es un conjunto de procesos que subyace al concepto y se identifican los siguientes aspectos principales, que pasarán a ser los requisitos necesarios para la implementación del yo en una arquitectura de control:
• Identidad
• Propiocepción
• Autoconsciencia
• Memoria autobiográfica
Para la elaboración de un modelo del yo concreto, se ha elegido entre concebir una arquitectura propia o seleccionar una arquitectura cognitiva existente desde la que partir. Se ha optado por esta última opción, debido a la ventaja de trabajar con arquitecturas ampliamente utilizadas de cara a la obtención de mejoras en aplicaciones prácticas en el mundo real y a los numerosos años de trabajo que supondrÃa diseñar una arquitectura desde cero.
AsÃ, se han analizado numerosas arquitecturas cognitivas y se ha llevado a cabo una comparación en mayor profundidad entre ACT-R, SOAR, RCS y LIDA. Finalmente, se ha optado por la arquitectura de referencia RCS, dado que está diseñada para controlar sistemas complejos en tiempo real y cumple con los requisitos de paralelismo, distribución y respuesta temporal de un sistema técnico, mientras que ACT-R, SOAR y LIDA tratan de modelar mecanismos propios de la mente humana y son menos adecuadas desde un punto de vista de ingenierÃa. RCS es ampliamente utilizada en aplicaciones que van desde la robótica espacial (NASREM) hasta las células de fabricación (ISAM), pasando por los vehÃculos no tripulados (4D/RCS). Sin embargo, no hay constancia de ningún intento de implementación de un yo en RCS y se cree que las mejoras que se pueden obtener con dicha implementación en el control de sistemas complejos son notables.
A grandes rasgos, RCS se organiza en una jerarquÃa de unidades fundamentales de control, denominadas nodos, que se distribuyen en diferentes niveles de resolución, de modo que al subir en la jerarquÃa aumentan el rango espacio-temporal y el nivel de abstracción. El número de niveles y nodos es fijo, pero las conexiones entre ellos se modifican en cada misión. Cada nodo se compone de una base de conocimiento (KD) y de módulos de procesamiento de la información sensorial (SP), modelado del mundo (WM), generación de comportamiento (BG) y juicio de valor (VJ) que cierran un bucle de control reactivo con el entorno, conocido como bucle elemental de funcionamiento (ELF). AsÃ, cada nodo interactúa con un entorno virtual, compuesto por nodos de niveles inferiores que se relacionan con el entorno, formando un ELF virtual.
Es precisamente esta recursividad en los bucles virtuales la que justifica la aparición de un único sentimiento de identidad en un sistema. La comunicación entre los diferentes procesos permite la agrupación de múltiples bucles en un ELF unificado que interacciona con el entorno. El patrón de información de este bucle único es el que se detecta y el que permite la distinción del yo con respecto al entorno. La interrupción de la comunicación podrÃa provocar que los bucles no se agruparan en un único ELF, generando una identidad diferente por cada bucle independiente.
Esta arquitectura utiliza las predicciones generadas por el modelo del mundo y las diferencias entre la información sensorial observada y la predicha para dirigir su atención, gracias a la memoria a corto plazo, a las regiones del mundo que son más relevantes para la tarea a ejecutar.
Cada módulo BG recibe un objetivo de alto nivel que descompone en tareas asignadas a los nodos subordinados. El planificador de tareas de RCS funciona de forma asÃncrona y a una frecuencia inferior a la del ciclo de control reactivo gracias al empleo de buffers en los que almacena el mejor plan del que dispone en cada instante. Cuando se genera un nuevo plan, éste es almacenado en el buffer y ejecutado, produciendo un comportamiento deliberativo; mientras tanto, el comportamiento es reactivo. Los errores que no encuentran solución suben a través de la jerarquÃa hasta alcanzar los niveles más altos, pudiendo llegar a cambiar la estrategia global del sistema.
Según la hipótesis realizada acerca de la identidad, cualquier sistema artificial que se observe a sà mismo y que interaccione con el mundo presenta una configuración de los flujos de información interiores que se distingue de la información desordenada del mundo exterior, por lo que lo único que necesita RCS para implementar la identidad es disponer de mecanismos que permitan el reconocimiento de patrones de información, además de la propiocepción. Para ello, se propone una metodologÃa similar a la generación de comportamiento, con el empleo de buffers. Se tiene un patrón caracterÃstico del propio sistema con el que se comparan los patrones informacionales observados que superen un umbral de persistencia. Si el error entre ambos es pequeño, se reconoce el patrón como propio y la información contenida en el mismo se utiliza en la construcción de la memoria autobiográfica. Si este error se prolonga en el tiempo, se actualiza el patrón de referencia, permitiendo que el sistema se adapte continuamente a los cambios que sufre en su estructura. Si el error es grande, no se produce la distinción del propio sistema frente al entorno.
Para que el sistema se observe a sà mismo, debe incluir sensores internos y virtuales.
Éstos últimos deben observar las relaciones entre módulos dentro de un mismo nodo, entre nodos y entre niveles, asà como la relación de cada uno de ellos con el entorno. Se puede hacer de forma centralizada o distribuida. Como en el modelo planteado toda la información se maneja de la misma forma, con independencia de su procedencia, se propone la aplicación de la teorÃa de categorÃas, de forma que tanto entidades como relaciones sean tratadas como categorÃas. El análisis de los morfismos entre ellas permite que RCS determine dinámicamente la estructura de arquitectura, pudiendo llegar a construir y destruir nodos a alto nivel.
RCS cumple los requisitos establecidos por la teorÃa de representación de alto nivel (HOT) para que un sistema sea consciente, puesto que se organiza en diferentes niveles de representación.
En consecuencia, bastarÃa con utilizar diferentes niveles de representación de la información interna para conseguir que ésta sea consciente y, por consiguiente, que RCS sea autoconsciente.
Para que RCS sea, además, autoconsciente según la teorÃa GWT, necesita que los contenidos del modelo de sà misma formen parte de la competición para acceder a la memoria a corto plazo, de forma que los aspectos relacionados con el propio sistema pudieran dirigir el foco de atención.
Finalmente, para la construcción de la memoria autobiográfica debe almacenarse en KD toda la información de interés acerca del funcionamiento de la propia arquitectura y de su relación con el entorno y aplicarse una segunda jerarquÃa SP, llevando a cabo un proceso de abstracción, agrupación en objetos individuales y asignación de valor de la información autobiográfica. La memoria autobiográfica permite ajustar los algoritmos y parámetros de la unidad VJ, influyendo en la toma de decisiones para que éstas tengan en cuenta las fuerzas y debilidades del propio sistema.
Aunque se ha propuesto un modelo de referencia para la incorporación de un yo a la arquitectura cognitiva RCS, este modelo puede extenderse a cualquier arquitectura de un sistema autónomo, utilizando los mecanismos propios de cada una para el cumplimiento de los requisitos del yo identificados. Este trabajo ha sido el primer paso de una lÃnea de investigación que busca trasladar las enormes capacidades que aporta el yo a los seres vivos a sistemas técnicos. Detrás vendrán numerosos pasos más, entre los que se encuentran la implementación real del modelo propuesto, la elaboración de un modelo propio de consciencia o la incorporación de emociones al modelo; hasta la construcción completa de un yo artificial
Direct growth of few-layer graphene on AlN-based resonators for high-sensitivity gravimetric biosensors
We present the successful growth of few-layer graphene on top of AlN-based solidly mounted resonators (SMR) using a low-temperature chemical vapour deposition (CVD) process assisted by Ni catalysts, and its effective bio-functionalization with antibodies. The SMRs are manufactured on top of fully insulating AlN/SiO2 acoustic mirrors able to withstand the temperatures reached during the CVD growth of graphene (up to 650 °C). The active AlN films, purposely grown with the c-axis tilted, effectively excite shear modes displaying excellent in-liquid performance, with electromechanical coupling and quality factors of around 3% and 150, respectively, which barely vary after graphene integration. Raman spectra reveal that the as-grown graphene is composed of less than five weakly coupled layers with a low density of defects. Two functionalization protocols of the graphene are proposed. The first one, based on a covalent binding approach, starts with a low-damage O2 plasma treatment that introduces a controlled density of defects in graphene, including carboxylic groups. After that, 1-ethyl-3-(3-dimethylaminopropyl)carbodiimide hydrochloride/N-hydroxysuccinimide (EDC/NHS) chemistry is used to covalently bind streptavidin molecules to the surface of the sensors. The second functionalization protocol is based on the non-covalent bonding of streptavidin on hydrophobic graphene surfaces. The two protocols end with the effective bonding of biotinylated anti-IgG antibodies to the streptavidin, which leaves the surface of the devices ready for possible IgG detection
Integration of multilayered graphene on AlN based resonators as a functionalization platform for biosensors
In this communication we present the integration of graphene on the top electrode of solidly mounted resonators based on piezoelectric AlN thin films for gravimetric sensor applications. Because its particular chemical structure, graphene shows great potential as a bio-functionalization platform. However, in order to be commercially viable, direct deposition on the resonators is preferred to transfer techniques. The high temperatures involved in graphene chemical vapor deposition make this integration complex. Specially developed acoustic resonators, which can withstand high temperatures, combined with the use of multilayered top electrodes for AlN resonators, allow a successful integration of graphene. Finally, oxygen plasma treatments to optimize the creation of defects on the graphene layer can be used to firmly bond receptors on its surface