200 research outputs found
Signatures of sub-GeV dark matter beams at neutrino experiments
We study the high-luminosity fixed-target neutrino experiments at MiniBooNE,
MINOS and T2K and analyze their sensitivity to light stable states, focusing on
MeV--GeV scale dark matter. Thermal relic dark matter scenarios in the sub-GeV
mass range require the presence of light mediators, whose coupling to the
Standard Model facilitates annihilation in the early universe and allows for
the correct thermal relic abundance. The mediators in turn provide a production
channel for dark matter at colliders or fixed targets, and as a consequence the
neutrino beams generated at fixed targets may contain an additional beam of
light dark matter. The signatures of this beam include elastic scattering off
electrons or nucleons in the (near-)detector, which closely mimics the neutral
current scattering of neutrinos. We determine the event rate at modern fixed
target facilities and the ensuing sensitivity to sub-GeV dark matter.Comment: 18 pages, 13 figures, revtex4-
An evaluation of the IDEEAâą activity monitor for estimating energy expenditure
Peer reviewedPublisher PD
A Novel Approach to Small Form-Factor Spacecraft Structures for Usage in Precision Optical Payloads
Precision optical payloads will soon experience a boom in manufacturing scale with the onset of proliferated satellite constellation concepts. Presently, the cost of assembly for a single unit can reach upwards of $500,000. Reduction in recurring engineering and assembly complexity can reduce this figure by up to two orders of magnitude. This paper discusses one potential solution which relies on consistent structural components that are easily manufactured in bulk quantities to facilitate general uses while also enabling high-precision mounting in designated payload slots. This proposed approach combines standardized struts and panels able to be connected and stacked in a variety of ways to form a modular structure from 1U subsections. For the subsections in need of higher precision, slots are milled and reamed from the same standard panel. Within these slots, card-like brackets are mounted to within 10 micrometer precision with the use of low-tolerance gauge spheres. A technique called âscrew-pullingâ secures these brackets such that the gauge spheres act as nearly single-point-of-contact datums. This approach allows payloads to be tested externally with minimal alignment shifts when re-integrated into the structure and is demonstrated with a 2.2 ÎŒm pixel size CMOS sensor and a 23 mm focal length lens
Observing a light dark matter beam with neutrino experiments
We consider the sensitivity of fixed-target neutrino experiments at the
luminosity frontier to light stable states, such as those present in models of
MeV-scale dark matter. To ensure the correct thermal relic abundance, such
states must annihilate via light mediators, which in turn provide an access
portal for direct production in colliders or fixed targets. Indeed, this
framework endows the neutrino beams produced at fixed-target facilities with a
companion `dark matter beam', which may be detected via an excess of elastic
scattering events off electrons or nuclei in the (near-)detector. We study the
high luminosity proton fixed-target experiments at LSND and MiniBooNE, and
determine that the ensuing sensitivity to light dark matter generally surpasses
that of other direct probes. For scenarios with a kinetically-mixed U(1)'
vector mediator of mass m_V, we find that a large volume of parameter space is
excluded for m_DM ~ 1-5 MeV, covering vector masses 2 m_DM < m_V < m_eta and a
range of kinetic mixing parameters reaching as low as kappa ~ 10^{-5}. The
corresponding MeV-scale dark matter scenarios motivated by an explanation of
the galactic 511 keV line are thus strongly constrained.Comment: 19 pages, 5 figures; v2: typos corrected, to appear in Phys. Rev. D;
v3: note added clarifying the parameter range excluded by LSN
ROL DE LAS ELITES EN LOS TERRITORIOS: EL CASO DE TRES FAMILIAS EN CHILE AUSTRAL. OSORNO, SIGLOS XIX Y XX
El objetivo de este artĂculo es en primer lugar, reflexionar sobre el rol de las elites en los territorios, a travĂ©s de la producciĂłn de poder, la generaciĂłn de identidad, la confecciĂłn de fronteras internas y externas y la construcciĂłn de Estado. En segundo tĂ©rmino, este artĂculo constata dicha reflexiĂłn y pone en evidencia la importancia de las elites provinciales, alejadas del centro polĂtico-administrativo del paĂs, como lo fue la elite de Osorno durante los siglos XIX y principios del siglo XX. Finalmente, ejemplificamos el rol de esta elite en un territorio particular, dando cuenta del accionar de tres familias de elite en Osorno, demostrando cĂłmo sus prĂĄcticas influyen e impactan en el desarrollo del territorio austral del paĂs
Digitalisierung des Berichtswesens im Bereich Operative Locomotives and Budget Planning: Methoden aus dem Bereich Business Intelligence der DB Cargo AG
Die Masterarbeit ist in Zusammenarbeit mit der DB Cargo AG entstanden. DB Cargo ist ein fĂŒhrender globaler Logistikdienstleister und der gröĂte Anbieter im SchienengĂŒterverkehr in Europa. Die Gesellschaft gehört zu 100 % der Deutschen Bahn AG. Die DB Cargo beschĂ€ftigte im Jahr 2018 28.842 Mitarbeiter und beförderte 255 Millionen Tonnen GĂŒter.Die beteiligten Abteilungen sind das Asset Intelligence Center (u.a. zustĂ€ndig fĂŒr Digitalisierungsprojekte) und Operative Locomotives and Budget Planning. Sie sind beispielsweise fĂŒr die Instandhaltungs- und Trieb-fahrzeugbedarfs-Planung verantwortlich.Aktuell sind die ZeitaufwĂ€nde, die fĂŒr die Erstellung des Berichtswesens benötigt werden, sehr hoch. Dies ist u.a. darauf zurĂŒckzufĂŒhren, dass viele manuelle TĂ€tigkeiten anfallen.Das Ziel dieser Arbeit bestand darin, durch die Digitalisierung eines Teils des Berichtswesens die ZeitaufwĂ€nde signifikant zu verringern. Weiterhin wurden mit der Software Tableau Visualisierungen bereitgestellt, die einen Self-Service-Business-Intelligence-Ansatz unterstĂŒtzen.Durch den Einsatz von Scrum konnten die Anforderungen der Stakeholder agil aufgenommen und gemanagt werden. Zudem sind durch den Einsatz des KDD-Prozesses sowie CRISP-DM die Visualisierungen realisiert worden. Der KDD-Prozess wurde bei festgelegten Visualisierungen eingesetzt. Hingegen wurde CRISP-DM bei Analysen, die eine erweiterte Sicht auf eventuelle ErgebnisansĂ€tze ermöglichen, verwendet. Dieses Vorgehen ermöglichte die RĂŒckmeldungen und Anmerkungen der Stakeholder direkt einzubeziehen.Mit verschiedenen Python-Skripten und dem ZusammenfĂŒhren von Datenquellen wurde eine Teilautomatisierung realisiert. Dadurch sind viele manuelle TĂ€tigkeiten automatisiert worden. Das Aktualisieren der Datenquellen und Starten der Skripte muss allerdings noch manuell erfolgen.Die anschlieĂenden Datenintegrationen in Tableau sind hingegen automatisiert. Durch den Tableau Server werden die durch die Teilautomatisierung bereit-gestellten Datenquellen an jedem Werktag aktualisiert.In Tableau wurde eine gröĂere Anzahl von Dashboards mit Visualisierungen (Kennzahlen und Analysen) bereit-gestellt. Darunter fallen zum Beispiel Plan-Ist-Vergleiche und AusreiĂeranalysen. Die Dashboards besitzen ein identisches Layout im Corporate Design der DB. Es sind die Filtermöglichkeiten und verschiedene Buttons vorhanden, welche die Betrachtung weiterer Dashboards oder der HilfefunktionalitĂ€t ermöglichen.Um die Zielsetzung qualitativ zu ĂŒberprĂŒfen, wurde eine interne Evaluierung anhand der NutzerInnen durch-gefĂŒhrt. Das Ergebnis dieser Evaluierung ist, dass eine geschĂ€tzte Zeitersparnis von einer bis drei Stunden pro Woche bei der Erstellung des Berichtswesens und wiederkehrenden Fragen vorzufinden ist. Insgesamt wird der DB Cargo mit diesem Projekt eine teilautomatisierte Lösung bereitgestellt, die einen Zeitgewinn sowie einen erweiterten Blick auf die Daten im Bereich Self-Service BI ermöglicht.Die Masterarbeit ist in Zusammenarbeit mit der DB Cargo AG entstanden. DB Cargo ist ein fĂŒhrender globaler Logistikdienstleister und der gröĂte Anbieter im SchienengĂŒterverkehr in Europa. Die Gesellschaft gehört zu 100 % der Deutschen Bahn AG. Die DB Cargo beschĂ€ftigte im Jahr 2018 28.842 Mitarbeiter und beförderte 255 Millionen Tonnen GĂŒter.Die beteiligten Abteilungen sind das Asset Intelligence Center (u.a. zustĂ€ndig fĂŒr Digitalisierungsprojekte) und Operative Locomotives and Budget Planning. Sie sind beispielsweise fĂŒr die Instandhaltungs- und Trieb-fahrzeugbedarfs-Planung verantwortlich.Aktuell sind die ZeitaufwĂ€nde, die fĂŒr die Erstellung des Berichtswesens benötigt werden, sehr hoch. Dies ist u.a. darauf zurĂŒckzufĂŒhren, dass viele manuelle TĂ€tigkeiten anfallen.Das Ziel dieser Arbeit bestand darin, durch die Digitalisierung eines Teils des Berichtswesens die ZeitaufwĂ€nde signifikant zu verringern. Weiterhin wurden mit der Software Tableau Visualisierungen bereitgestellt, die einen Self-Service-Business-Intelligence-Ansatz unterstĂŒtzen.Durch den Einsatz von Scrum konnten die Anforderungen der Stakeholder agil aufgenommen und gemanagt werden. Zudem sind durch den Einsatz des KDD-Prozesses sowie CRISP-DM die Visualisierungen realisiert worden. Der KDD-Prozess wurde bei festgelegten Visualisierungen eingesetzt. Hingegen wurde CRISP-DM bei Analysen, die eine erweiterte Sicht auf eventuelle ErgebnisansĂ€tze ermöglichen, verwendet. Dieses Vorgehen ermöglichte die RĂŒckmeldungen und Anmerkungen der Stakeholder direkt einzubeziehen.Mit verschiedenen Python-Skripten und dem ZusammenfĂŒhren von Datenquellen wurde eine Teilautomatisierung realisiert. Dadurch sind viele manuelle TĂ€tigkeiten automatisiert worden. Das Aktualisieren der Datenquellen und Starten der Skripte muss allerdings noch manuell erfolgen.Die anschlieĂenden Datenintegrationen in Tableau sind hingegen automatisiert. Durch den Tableau Server werden die durch die Teilautomatisierung bereit-gestellten Datenquellen an jedem Werktag aktualisiert.In Tableau wurde eine gröĂere Anzahl von Dashboards mit Visualisierungen (Kennzahlen und Analysen) bereit-gestellt. Darunter fallen zum Beispiel Plan-Ist-Vergleiche und AusreiĂeranalysen. Die Dashboards besitzen ein identisches Layout im Corporate Design der DB. Es sind die Filtermöglichkeiten und verschiedene Buttons vorhanden, welche die Betrachtung weiterer Dashboards oder der HilfefunktionalitĂ€t ermöglichen.Um die Zielsetzung qualitativ zu ĂŒberprĂŒfen, wurde eine interne Evaluierung anhand der NutzerInnen durch-gefĂŒhrt. Das Ergebnis dieser Evaluierung ist, dass eine geschĂ€tzte Zeitersparnis von einer bis drei Stunden pro Woche bei der Erstellung des Berichtswesens und wiederkehrenden Fragen vorzufinden ist. Insgesamt wird der DB Cargo mit diesem Projekt eine teilautomatisierte Lösung bereitgestellt, die einen Zeitgewinn sowie einen erweiterten Blick auf die Daten im Bereich Self-Service BI ermöglicht
- âŠ