4,149 research outputs found
Weak value amplification: a view from quantum estimation theory that highlights what it is and what isn't
Weak value amplification (WVA) is a concept that has been extensively used in
a myriad of applications with the aim of rendering measurable tiny changes of a
variable of interest. In spite of this, there is still an on-going debate about
its true nature and whether is really needed for achieving high sensitivity.
Here we aim at solving the puzzle, using some basic concepts from quantum
estimation theory, highlighting what the use of the WVA concept can offer and
what it can not. While WVA cannot be used to go beyond some fundamental
sensitivity limits that arise from considering the full nature of the quantum
states, WVA can notwithstanding enhance the sensitivity of real detection
schemes that are limited by many other things apart from the quantum nature of
the states involved, i.e. technical noise. Importantly, it can do that in a
straightforward and easily accessible manner.Comment: 2 pages, 5 figure
Evaluación de la hidrodinámica de una mina a cielo abierto mediante un modelo de simulación, utilizando diversos enfoques de modelación basados en los atributos geológicos del acuífero
La hidrodinámica de los acuíferos fracturados se encuentra sujeta a la alta heterogeneidad hidráulica dominada por fallas y fracturas y su interacción con la matriz rocosa, cuya caracterización representa un alto grado de complejidad hidrogeológica. La comprensión y modelación de esta heterogeneidad se ha vuelto de vital importancia para los sectores humanos que interactúan con estos acuíferos, siendo uno de los más importantes el sector minero, cuya necesidad primordial es el desagüe de las zonas mineralizadas para permitir el acceso a los minerales de mena. Dada la gran cantidad de información geológica derivada de la etapa de exploración de la mina que se encuentra en el área de estudio, se realizó un análisis multivariable que toma como base la Designación de la Calidad de la Roca, RQD (Rock Quality Designation por sus siglas en inglés) y su relación con el caudal producido por 37 pozos de desagüe, el cual se presenta como una herramienta para la caracterización hidrogeológica de un acuífero fracturado. Se construyó un modelo sólido con los datos RQD utilizando tres tamaños diferentes para cada celda de la cuadrícula y cuatro métodos de interpolación, donde la cuadrícula más pequeña y el método de ponderación inversa a la distancia en un medio anisotrópico presentaron los mejores resultados. El modelo sólido RQD resultante se utilizó para localizar 22 pozos piloto, en los que se realizó la prueba de air-lift para obtener una evaluación cualitativa de su utilidad. Los resultados mostraron una importante relación entre el rendimiento de los pozos, la litología y la alteración de la roca, pero también se encontró que algunas fracturas o fallas, que no se pueden detectar claramente por el RQD, juegan un papel muy importante en la hidrodinámica del acuífero, de modo que la caracterización del acuífero derivó en la obtención de dos dominios hidroestructurales: matriz fracturada y fallamiento regional. Esto mostró que es necesario tener en cuenta todos los factores disponibles que pueden ayudar a identificar el comportamiento hidrodinámico del acuífero para lograr un modelo conceptual representativo. Posteriormente, se establecieron relaciones entre los atributos geológicos de las unidades rocosas y sus características hidráulicas, controladas mediante ecuaciones exponenciales empíricas. Asimismo, mediante una analogía con un acuífero estratificado y con el uso de ecuaciones básicas en hidrogeología y de la conductividad hidráulica de los pozos de desagüe, se estimaron las propiedades hidráulicas de las zonas de falla, las cuales mostraron un papel importante en la hidrodinámica del acuífero. Estas ecuaciones permitieron integrar un modelo de simulación en tres dimensiones con el apoyo del software Visual ModFlow, aplicado mediante diferentes enfoques de modelación que varían gradualmente su grado de complejidad con respecto a la distribución de la conductividad hidráulica: Medio Poroso Equivalente, Medio Poroso Equivalente Parametrizado y Medio dual-continuo. El primer enfoque constituye la forma común de modelación, donde se definen unidades hidrogeológicas con características hidráulicas propias, a diferencia del segundo en el cual se aplicaron las ecuaciones exponenciales en función de los atributos geológicos de cada celda del modelo para asignarle un valor de conductividad hidráulica único. El tercer enfoque incluyó la modelación de las zonas de falla, lo cual requirió del refinamiento de la malla para permitir la adecuada integración de la geometría de cada una de ellas. Los resultados mostraron de forma general que es posible obtener calibraciones aceptables en los tres enfoques modelados, lo cual resalta la importancia de la definición de un modelo conceptual adecuado. No obstante, el tercer enfoque es el que pudo representar de manera más apropiadas la hidrodinámica del acuífero, sirviendo como base para el desarrollo de un plan de desagüe para el corto y largo plazo. Este plan mostró que con la adición de diez pozos de desagüe es factible evitar el paso del agua subterránea al área de operaciones de acuerdo con el plan de minado, lo cual permitirá el avance en la excavación del tajo, reduciendo los costos operativos y permitiendo el acceso seguro a los trabajadores de la mina
運動誘導のための振動錯覚に基づく触覚フィードバック
要約のみTohoku University平田泰久課
Pilot Study - Synthetic datasets for classification and detection of non-rigid objects: fabrics
L'aplicació de mètodes d'aprenentatge profund (DL) per a la classificació i detecció d'objectes s'accepta com una tecnologia prometedora per abordar el dinamisme i la complexitat en la fabricació, que s'utilitza principalment amb finalitats de control i qualitat de plantes. Aquest enfocament requereix grans volums de dades anotades per tal d'entrenar els models amb l'objectiu de realitzar prediccions correctes, però, la construcció d'aquest tipus de conjunts de dades és una tasca complexa i que requereix temps a més de costosa. Aprofitant el programari de modelatge 3D i les eines de programació, es poden generar conjunts de dades sintètiques d'imatges per accelerar l'entrenament dels models DL, evitant possibles problemes relacionats amb el biaix de les dades i els errors realitzats durant els procediments d'etiquetatge manual. Aquest treball presenta un mètode per generar conjunts de dades sintètiques automàticament mitjançant simulació 3D. Aquest mètode s'utilitza per generar imatges amb diferents configuracions de fons d'objectes no rígids, en aquest cas, diferents classes de teixits. Es van entrenar diverses xarxes neuronals convolucionals (CNN) d'última generació mitjançant l'aprenentatge de transferència de les dades generades. El rendiment dels models es presenta, es compara i es discuteix. Per a aquesta tasca particular de classificació i reconeixement d'objectes, el model de MobileNet va superar altres models aconseguint una precisió mitjana del 60,41% per a la detecció i un 37,50% per a la classificació. Les troballes indiquen que la formació de models de CNN mitjançant dades generades sintèticament podria ser un enfocament viable i eficaç, oferint una alternativa per fer prediccions adequades que no depenguin dels conjunts de dades disponibles que podrien no estar totalment alineats amb els requisits específics de la tasca de visió per ordinador desitjada.La aplicación de modelos de aprendizaje profundo (deep learning) para la clasificación y detección de objetos, se presenta como una tecnología prometedora para abordar el dinamismo y complejidad referente a los procesos de producción, utilizados principalmente con fines de supervisión y aseguramiento de la calidad. Este enfoque requiere la generación de grandes volúmenes de datos etiquetados con el fin de entrenar los modelos y realizar predicciones precisas, sin embargo, la construcción de este tipo de conjunto de datos es una tarea compleja y dispendiosa, además de costosa. Mediante el uso de software de modelado 3D y diferentes herramientas de programación, se pueden generar conjuntos de datos sintéticos, en este caso imágenes, para acelerar el entrenamiento de estos modelos y así evitar posibles problemas relacionados con el sesgo de los datos y errores cometidos durante el etiquetado manual. Este trabajo presenta un proceso para generar automáticamente conjuntos de datos sintéticos mediante simulación 3D, estableciendo una serie de actividades para generar imágenes con diferentes configuraciones de fondo para objetos deformables, en este caso, diferentes clases de telas. Varias redes neuronales (CNN) fueron entrenadas aplicando técnicas de transfer learning con los datos generados, evaluando cada modelo con base a su rendimiento. Para esta tarea concreta de clasificación y reconocimiento de objetos, el modelo MobileNet superó a los demás modelos al lograr una precisión media del 60,41% para la detección y del 37,50% para la clasificación. Los resultados indican que el entrenamiento de modelos CNN a partir de datos generados sintéticamente puede ser un método viable y eficaz, ofreciendo una alternativa para realizar predicciones adecuadas que no dependan de conjuntos de datos disponibles, ya que podrían no estar totalmente alineados con los requisitos específicos de la tarea de visión por computador deseada.The application of deep learning (DL) methods for object classification and detection is accepted as a promising technology to address dynamism and complexity in manufacturing, primarily used for plant monitoring and quality purposes. This approach requires large volumes of annotated data in order to train the models aiming at performing correct predictions, however, constructing this kind of datasets is a complex and time-consuming task as well as expensive. By taking advantage of 3D modeling software and programming tools, image synthetic datasets can be generated for speeding up training of DL models, avoiding possible issues regarding bias of the data and errors performed during manual labeling procedures. This work presents a pipeline for generating synthetic datasets automatically through 3D simulation. The pipeline is used for generating images with different background configurations of non-rigid objects, in this case, different classes of fabrics. Several state-of-art pre-trained convolutional neural networks (CNN) were trained by transfer learning on the generated data. The models’ performance is presented, compared, and discussed. For this particular object classification and recognition task, MobileNet model outperformed other models by achieving a mean average precision of 60.41% for detection and a 37.50% for classification. Findings indicate that training CNN models using synthetically generated data could be a viable and effective approach, offering an alternative for making suitable predictions not depending on available datasets that might not be fully aligned with the specific requirements of the desired computer vision task
Cost-Effective Monitoring of Railroad Bridge Performance
The railroad network carries 40 % of the freight in the US. Railroad bridges are the most critical part of the network and they need to be properly maintained for safety of operations. Railroad managers need to inspect the bridges in order to assess their structural condition. Railroad managers are interested in measuring displacements under train crossing events to prioritize their bridge management and safety decisions. However, bridge displacements are difficult to collect in the field, because they require a fixed reference from where to measure. Accelerations can be used to estimate dynamic displacements but to this date, the pseudo-static displacements cannot be measured using reference-free sensors. This study proposes a method to estimate the total displacements of a railroad bridge under live train loads using acceleration and tilt data without a need for fixed reference. Researchers used real bridge displacement data representing different bridge serviceability level under train traffic. This study explores the design of a new bridge deck-pier experimental model that simulates the vibrations of railroad bridges under traffic. This experiment configuration includes the use of a shake table to input the recorded signal from the field into a railroad pile bent. Reference-free sensors measured both the inclination angle and accelerations of the pile cap. The different acceleration readings are used to estimate the total displacements of the bridge using data filtering. The estimated displacements are then compared to the true responses of the model measured with displacement sensors. The results show that this method can cost-effectively measure the total displacement of railroad bridges without a fixed reference. In addition, this paper studies the use of a low-cost data acquisition platform to measure reference-free dynamic displacements of railroad bridges by combining low-cost microcontrollers and accelerometers. Researchers used the new system to measure accelerations and reconstruct reference-free displacements from several railroad bridge crossing events. The results obtained from the proposed low-cost sensors were compared with those of commercial sensing equipment. The results show that low-cost sensors and commercial sensing systems can measure reference-free displacements with comparable accuracy. The results of this study show that the proposed platform estimates reference-free displacements with a peak error between 20 % and 30 % and a root mean square (RMS) error between 10 % and 20 %, which is similar to commercial SHM systems. The proposed low-cost system is approximately 300 times less expensive than the commercial sensing equipment. In conclusion, this study evaluates the accuracy of cost-effective systems to measure the reference-free displacement of railroad bridges. The conclusions of this study propose a cost-effective method to measure the reference-free displacement of railroad bridges that all railroad companies can afford. The ultimate goal of this research is to provide stakeholders with means to design, develop, own, and operate their own SHM systems
Cloud Security
Isabella Roth
Jose Salazar
Professor Yi Hu
Computer Information Technology
Cloud Security: AWS Abstract
With enterprises moving their IT infrastructure to the cloud using providers like Amazon Web Services (AWS), security problems have not been reduced. In fact, cloud computing brings new security challenges. Our research investigated better solutions to the security problems that come with using the cloud to store a companies data.
The cloud is a general term for using the internet to receive some sort of data vs connecting directly to a server. This makes it easier to do things such as connecting to an online app to even retrieving information about your company such as the statics on all of the employs in your workplace. Storing information in the cloud is a lot cheaper than using a server to store certain information. Of course, however, it is relatively harder to secure and implement the cloud in the workforce. So we investigated which cloud solution would be easiest to implement in a workplace environment. We spent most of the summer working towards getting the cloud to communicate with a simple app we had created. This app would then use a third party, such as Facebook to verify and log you into the app. Due to the limited experience, we had when we began this project we had to fail many a time until we finally succeeded. I hope in the future we are able to explore more deeply into more complex versions of cloud security
Data granularity in mid-year life table construction
[EN] Life tables have a substantial influence on both public pension systems and
life insurance policies. National statistical agencies construct life tables from
death rate estimates (������), or death probabilities (������
), after applying various
hypotheses to the aggregated figures of demographic events (deaths,
migrations and births). The use of big data has become extensive across
many disciplines, including population statistics. We take advantage of this
fact to create new (more unrestricted) mortality estimators within the family
of period-based estimators, in particular, when the exposed-to-risk
population is computed through mid-year population estimates. We use
actual data of the Spanish population to explore, by exploiting the detailed
microdata of births, deaths and migrations (in total, more than 186 million
demographic events), the effects that different assumptions have on
calculating death probabilities. We also analyse their impact on a sample of
insurance product. Our results reveal the need to include granular data,
including the exact birthdate of each person, when computing period midyear life tables.This research has been supported by the Spanish Ministry of Science, Innovation and
Universities and the Spanish Agency of Research, co-funded with FEDER funds, project
ECO2017-87245-R and Generalitat Valenciana (Consellería d’Innovació, Universitats, Ciència i Societat Digital) project AICO/2019/053.Pavia, J.; Salazar, N.; Lledo, J. (2020). Data granularity in mid-year life table construction. Editorial Universitat Politècnica de València. 143-151. https://doi.org/10.4995/CARMA2020.2020.11611OCS14315
- …