372 research outputs found
Cosmological Implications of Standard Model extensions
Los modelos estándar tanto de partículas como de Cosmología son capaces de describir
una gran cantidad de datos experimentales con una increíble precisión. Sin embargo, en
ciertas áreas de estos modelos aún existen discrepancias frente a lo descrito teóricamente y
lo observado en la naturaleza. En concreto, el modelo estándar de partículas es incapaz de
dar una explicación del patrón de masas y mezclas observadas en las partículas conocidas
(siendo de suma importancia la masa de los neutrinos) o por qué el Universo está formado por
partículas, sin presencial sustancial de antipartículas (asimetría bariónica). Desde un punto
de vista Cosmológico, tampoco es posible explicar el contenido energético de nuestro Universo. Únicamente el 4% de la densidad de energía del Universo está formada por partículas del
modelo estándar. El resto está, en un 23% en forma de materia no conocida y con una
interacción débil, conocida como materia oscura, y en un 73% en forma de un fluido con
una ecuación de estado aproximadamente igual a la de la energía de vacío de cualquier teoría
cuántica de campos (p = -E). Además, el modelo Cosmológico del Big Bang es incapaz de
dar una interpretación clara de las excepcionalmente precisas condiciones iniciales que debe
tener el Universo para poder dar una explicación de las observaciones, en concreto, de la
homogeneidad y la isotropía presentes en el Universo conocido.
En esta tesis nos vamos a centrar en dos marcos teóricos desarrollados para intentar
dar una solución a algunos de los problemas encionados con anterioridad. Dichos marcos
se conocen como Inflación y Leptogénesis. El primero supone un periodo de expansión
acelerada en los inicios de nuestro Universo mediante el cual se pueden solucionar los problemas de homogeneidad e isotropía, así como otros no mencionados como la generación de
las perturbaciones iniciales que dieron lugar a a las estructuras actuales del Universo, o
la ausencia de relics, objetos predichos por ciertas teorías más allá del modelo estándar
de partículas que en caso de estar presentes habrían modificado la estructura o evolución
del Universo considerablemente. En su versión más simple, dicha expansión acelerada es
provocada por un campo escalar que evoluciona al mínimo de su potencial muy lentamente,
debido a que el potencial es extremadamente plano. La ecuación de estado asociada a ese
campo es aproximadamente igual a la de la energía de vacío, causando una expansión acelerada. El segundo de ellos, Leptogénesis, da una explicación a la asimetría bariónica a través
de la conversión parcial de una previa asimetría leptónica mediante los procesos denominados esfalerones. Dicho marco se engloba dentro de las teorías seesaw, en donde el modelo
estándar de partículas se amplía con al menos dos neutrinos pesados de Ma jorana. Estas
teorías sirven para dar una interpretación de la diminuta masa de los neutrinos ligeros. En los modelos de Leptogénesis, la asimetréa leptónica es provocada por la desintegración de
algunos de dichos neutrinos pesados en partículas del modelo estándar.
Una de las características mas reseñables de los modelos inflacionarios es que predicen un
power spectrum que es prácticamente invariante bajo un cambio de escala. Esta predicción
ha sido confirmada por las diferentes observaciones de las perturbaciones del fondo cósmico
de microondas. Dicha invariancia es debida a la simetría ba jo translación temporal presente
en las teorías de Inflación (t -> t '= t + c), siendo c una constante, por lo que cualquier teoría
in¿acionaria ha de contar con esa simetría aproximada. En nuestro primer trabajo nos planteamos la posibilidad de extender dicha invariancia a una simetría de reparametrización temporal completa
(t-> t' = t'(t)). La implementación de esta provoca que los términos permitidos en el lagrangiano de perturbaciones son ahora muchos menos. Como consecuencia se observa que
las funciones de onda de las perturbaciones del campo que provoca Inflación se comportan
como si estuviesen en un espacio de Minkowsky. Sin embargo, la correcta generación de
perturbaciones clásicas se obtiene al tener en cuenta que esta fase debe desembocar en un
Universo de Friedmann-Robertson-Walker. Otro aspecto destacable de la teoría es que todas
las funciones de correlación a cualquier orden están fijadas por únicamente dos parámetros,
la amplitud del power spectrum y la velocidad del sonido de las perturbaciones.
El estudio de las perturbaciones del fondo cósmico de microondas ha logrado obtener una
precisión inimaginable tan solo 20 años atrás acerca de muchos parámetros cosmológicos,
relacionados por ejemplo con el contenido de materia y energía de nuestro Universo, o
su geometría espacial. De especial importancia para nuestro traba jo son los parámetros
relacionados con Inflación. Cantidades como la amplitud del power spectrum de las per-
turbaciones escalares y tensoriales o su desviación de la invariancia de escala, medida por
su spectral index han podido ser medidas o acotadas extraordinariamente, dando una información muy importante sobre el proceso mismo de In¿flación. No obstante, para la extracción
de esos valores, así como de tantos otros a través del estudio de las perturbaciones del fondo
cósmico de microondas, algunas suposiciones han sido hechas en la literatura. Como ejem-
plo, en el experimento WMAP se supone una reionización instantánea del Universo a un
redshift z comprendido entre 4 y 32. Dado la falta de información acerca de los procesos
exactos que dieron lugar a la reionización, en eñ segundo trabajo nos preguntamos cual sería el efecto de
un esquema de reionización más general, en el caso en el cual dicho proceso tuviera una
duración no nula. La conclusión mas reseñable es la relajación de los límites en el valor del
running, que mide la variación respecto a la escala del spectral index. Teniendo en cuenta
los nuevos límites, los modelos híbridos de Inflación, anteriormente excluidos, pasan a estar
dentro de los límites.
En lo referente a Leptogénesis, para el caso estándar en el que existe una jerarquía fuerte
en las masas de los neutrinos pesados que generan la asimetría (M1
<< M2 << M3 ), existe un límite en la cantidad de asimetría CP que dicha desintegración puede generar, que a
su vez se traduce en un límite a la masa del neutrino más ligero de los tres del orden de
M1 ~ 10^9 GeV, el as conocido como límite de Davidson-Ibarra. Es necesario entonces que
la temperatura de reheating que alcanza el Universo después de Inflación sea como mínimo
algo superior a 10^9 GeV para así poder generar los neutrinos pesados térmicamente. En caso
contrario, Leptogénesis no podría tener lugar en este contexto. Esta temperatura mínima a
su vez genera ciertas dificultades en teorías más allá del modelo estándar de partículas. Es
de especial importancia el caso de Supersimetría y la generación de gravitinos en el Universo
primitivo. Con una temperatura de reheating tan elevada, en el contexto de supersimetría,
en los origines de nuestro Universo se hubiese generado una cantidad tal de gravitinos que
su desintegración tardía hubiese comprometido la Nucleosntesis primordial.
En nuestro último trabajo estudiamos la asimetría generada por la parte que conserva nº leptónico. Encontramos que Leptogénesis es viable para masas del neutrino
pesado más ligero del orden de 10^6 GeV, aliviando los problemas relacionados con altas
temperaturas de reheating, en especial el del gravitino
On the AER Stereo-Vision Processing: A Spike Approach to Epipolar Matching
Image processing in digital computer systems usually considers
visual information as a sequence of frames. These frames are from cameras that
capture reality for a short period of time. They are renewed and transmitted at a
rate of 25-30 fps (typical real-time scenario). Digital video processing has to
process each frame in order to detect a feature on the input. In stereo vision,
existing algorithms use frames from two digital cameras and process them pixel
by pixel until it finds a pattern match in a section of both stereo frames. To
process stereo vision information, an image matching process is essential, but it
needs very high computational cost. Moreover, as more information is
processed, the more time spent by the matching algorithm, the more inefficient
it is. Spike-based processing is a relatively new approach that implements
processing by manipulating spikes one by one at the time they are transmitted,
like a human brain. The mammal nervous system is able to solve much more
complex problems, such as visual recognition by manipulating neuron’s spikes.
The spike-based philosophy for visual information processing based on the
neuro-inspired Address-Event- Representation (AER) is achieving nowadays
very high performances. The aim of this work is to study the viability of a
matching mechanism in a stereo-vision system, using AER codification. This
kind of mechanism has not been done before to an AER system. To do that,
epipolar geometry basis applied to AER system are studied, and several tests
are run, using recorded data and a computer. The results and an average error
are shown (error less than 2 pixels per point); and the viability is proved
Leptogenesis with small violation of B-L
We analyze leptogenesis in the context of seesaw models with almost conserved lepton number, focusing on the L-conserving contribution to the flavoured CP asymmetries. We find that, contrary to previous claims, successful leptogenesis is feasible for masses of the lightest heavy neutrino as low as M-1 similar to 10(6) GeV, without resorting to the resonant enhancement of the CP asymmetry for strongly degenerate heavy neutrinos. This lower limit renders thermal leptogenesis compatible with the gravitino bound in supersymmetric scenarios
SVITE: A Spike-Based VITE Neuro-Inspired Robot Controller
This paper presents an implementation of a neuro-inspired algorithm
called VITE (Vector Integration To End Point) in FPGA in the spikes domain.
VITE aims to generate a non-planned trajectory for reaching tasks in robots.
The algorithm has been adapted to work completely in the spike domain under
Simulink simulations. The FPGA implementation consists in 4 VITE in parallel
for controlling a 4-degree-of-freedom stereo-vision robot. This work represents
the main layer of a complex spike-based architecture for robot neuro-inspired
reaching tasks in FPGAs. It has been implemented in two Xilinx FPGA
families: Virtex-5 and Spartan-6. Resources consumption comparative between
both devices is presented. Results obtained for Spartan device could allow
controlling complex robotic structures with up to 96 degrees of freedom per
FPGA, providing, in parallel, high speed connectivity with other neuromorphic
systems sending movement references. An exponential and gamma distribution
test over the inter spike interval has been performed to proof the approach to the
neural code proposed.Ministerio de Economía y Competitividad TEC2012-37868-C04-0
Depth of almost strictly sign regular matrices
The concept of depth of an almost strictly sign regular matrix is introduced and used to simplify some algorithmic characterizations of these matrices
Validation of the standard method EN ISO 19343:2017 for detection and quantification of histamine in different matrices of fish and fishery products using high performance liquid chromatography
Motivation: Histamine, a biogenic amine produced by bacterial decarboxylation of histidine, is the main cause of scombroid fish poisoning and is strictly regulated by the European Union in fish and fishery products [1]. Therefore, an adequate histamine quantification method is necessary in order to assess current regulations and prevent health problems. In this sense, High Performance Liquid Chromatography (HPLC) have been widely used for the detection of histamine as it provides good specificity and sensitivity when coupled with a highly sensitive detector. The standard protocol EN ISO 19343 is the current in use and it was developed to meet with 2073/2005 European Regulation about microbiological criteria for food products. However, there is still room for improvement in terms of resolution, sensitivity and discrimination and the validation of this protocol is a necessary step in laboratories to prove the reliability of results and a previous step to get ISO certification [2].Methods: In this study, we use the HPLC method-based ISO 19343:2017 to compare the results from different samples of raw fish, canned fish, fish sauce and fishery derived products. This method allows the separation of histamine within the set of biogenic amines from fish and fishery products. The sample is extracted by mixing it with perchloric acid. A derivatization is carried out prior passing through a chromatographic column using dansyl chloride to do histamine detectable under UV light. Biogenic amines and components in the solution are separated by HPLC using a chromatographic column, with UV detection. Histamine concentration is calculated from the ratio between the areas of histamine peaks and internal standard, using a calibration curve.In the validation process, veracity of the method is studied, examining parameters such as accuracy, recovery and correction. The work interval is defined between the lower and upper quantification limit. The specificity / selectivity of the method is studied and verified by performing exercises in different matrices with different compositions and checking that the quality criteria are met independently of the matrix composition. In this way, and if the parameters are within the limits established by the standard, the method would be validated [3]
Analysis and design of a centralized system of optical sources for transmission and reception in access network for 5G support
En el presente documento se propone un sistema pasivo óptico de 20 Gbps, para transmisión y recepción de dos servicios simultáneos en red de acceso, mediante modulación FM y POLMUX como técnica de centralización, aprovechando la polarización ortogonal de componentes magnéticas y eléctricas de un haz de luz coherente para el transporte de la información, brindando acceso a diferentes cantidades de usuarios o unidades de red óptica (ONU's) mediante el análisis del comportamiento de la señal con diferentes longitudes del enlace de fibra óptica y configuraciones en los divisores de polarización de la terminal de línea óptica de transmisión (OLT) .This document proposes a passive optical system of 20 Gbps, for transmission and reception of two simultaneous services in the access network, using FM modulation and POLMUX as a centralization technique, taking advantage of the orthogonal polarization of magnetic and electrical components from a coherent light beam to the transport of information, providing access to different amounts of users or optical network units (ONU's) by analyzing the behavior of the signal with different lengths of the fiber optic link and configurations in the polarization splitters of the optical link terminal (OLT)
Incidencia de las dinámicas del comercio internacional frente a la competitividad nacional colombiana (2012 a 2022)
En esta investigación se realiza el análisis del comercio internacional de Colombia y su impacto de las dinámicas económicas en cinco variables que comprende la producción nacional, la competitividad del comercio exterior, dinamismo de la inversión extranjera y la incidencia del a balanza comercial en el PIB nacional, lo cual permiten identificar la correlación de las variables que representa los efectos contemporáneos del país frente al desarrollo competitivo del mismo. Se contemplo la aplicación de un diseño metodológico propuesto a partir del análisis cuantitativo con base a la aplicación del método descriptico a partir de la revisión documental y la recolección de los datos propios de entidades oficiales nacionales. Adicionalmente se identificó el comportamiento económico del país evidenciando el crecimiento de algunos sectores económicos que aportan a las condiciones macroeconómicas de la nación, sin embargo se destaca elementos que se deben fortalecer como aspectos que afectan al perfil comercial internacional del país, que puede mejorar las condiciones de una balanza comercial en déficit una caída exponencial en los últimos cinco años en la inversión extranjera directa y potencializar nuevos sistemas productivos que responden a las nuevas condiciones del mercado global
Antimicrobial activity of Argemone ochroleuca Sweet (Chicalote).
Infusiones de la parte aérea de Argemone ochroleuca Sweet (Papaveraceae) son utilizadas por los pobladores de Tepotzotlán, Estado de México, para el tratamiento de infecciones en los ojos, enfermedades respiratorias y dermatológicas. El objetivo de este trabajo fue investigar la actividad antimicrobiana de los extractos hexánicos, acetato de etilo y metanólico de la parte aérea de A. ochroleuca. La actividad antimicrobiana fue evaluada frente a trece cepas bacterianas y nueve cepas fúngicas. Solo el extracto metanólico presentó actividad antimicrobiana. S. aureus (MIC= 125 µg/mL) y C. neoformans (MIC= 500 µg/mL) fueron las cepas que presentaron mayor sensibilidad. La purificación biodirigida del extracto metanólico dio como resultado el aislamiento e identificación del alcaloide isoquinolínico berberina. El presente estudio confirma la actividad antimicrobiana del extracto metanólico de A. ochroleuca.Abstract Argemone ochroleuca Sweet (Papaveraceae) is used to treat eye infection, respiratory and dermatological disorders in Tepotzotlán, State of México (México). The aim of this work was to investigate antimicrobial activity of hexane, ethyl acetate and methanol extracts from aerial parts of A. ochroleuca. The antimicrobial activity was evaluated against thirteen bacteria and nine fungal strains. Only methanol extract showed antimicrobial activity. S. aureus (MIC= 125 µg/mL) and C. neoformans (MIC= 500 µg/mL) were the most sensitive strains. The bioassay-guide purification of the methanolic extract resulted in the isolation and identification of the isoquinoline alkaloid berberine. The present study confirms the antimicrobial activity of methanolic extract of A. ochroleuca. Keywords: Antibacterial activity, Antifungal activity, Argemone ochroleuca, Berberine, Papaveraceae, Tepotzotlán, México
La percepción de la educación informal en Ingenieros Industriales de la UANL con menos de 5 años de haber egresado
La vida es una escuela en la que nadie lleva los mismos cursos, pero todos queremos obtener buenas notas, es por ello que nos preparamos lo mejor posible para alcanzar un desarrollo personal, emocional, físico y profesional positivo. Según el portal IMCO, la carrera de Ingeniería Industrial se encuentra en el Top 10 de las mejores carreras universitarias para elegir en México; siendo por esto una de las carreras más atractivas que ofrece la UANL. La facultad que ofrece la carrera es reconocida por su formación, lo que implica un alto nivel en su educación formal, sin embargo, de acuerdo a sus egresados, no está exenta a ser beneficiada por la educación informal. En este estudio mostramos la percepción que tienen los egresados de esta carrera referente al impacto de la educación informal en su formación como profesionales de la Ingeniería Industrial
- …