200 research outputs found

    Signatures of sub-GeV dark matter beams at neutrino experiments

    Full text link
    We study the high-luminosity fixed-target neutrino experiments at MiniBooNE, MINOS and T2K and analyze their sensitivity to light stable states, focusing on MeV--GeV scale dark matter. Thermal relic dark matter scenarios in the sub-GeV mass range require the presence of light mediators, whose coupling to the Standard Model facilitates annihilation in the early universe and allows for the correct thermal relic abundance. The mediators in turn provide a production channel for dark matter at colliders or fixed targets, and as a consequence the neutrino beams generated at fixed targets may contain an additional beam of light dark matter. The signatures of this beam include elastic scattering off electrons or nucleons in the (near-)detector, which closely mimics the neutral current scattering of neutrinos. We determine the event rate at modern fixed target facilities and the ensuing sensitivity to sub-GeV dark matter.Comment: 18 pages, 13 figures, revtex4-

    An evaluation of the IDEEAℱ activity monitor for estimating energy expenditure

    Get PDF
    Peer reviewedPublisher PD

    A Novel Approach to Small Form-Factor Spacecraft Structures for Usage in Precision Optical Payloads

    Get PDF
    Precision optical payloads will soon experience a boom in manufacturing scale with the onset of proliferated satellite constellation concepts. Presently, the cost of assembly for a single unit can reach upwards of $500,000. Reduction in recurring engineering and assembly complexity can reduce this figure by up to two orders of magnitude. This paper discusses one potential solution which relies on consistent structural components that are easily manufactured in bulk quantities to facilitate general uses while also enabling high-precision mounting in designated payload slots. This proposed approach combines standardized struts and panels able to be connected and stacked in a variety of ways to form a modular structure from 1U subsections. For the subsections in need of higher precision, slots are milled and reamed from the same standard panel. Within these slots, card-like brackets are mounted to within 10 micrometer precision with the use of low-tolerance gauge spheres. A technique called “screw-pulling” secures these brackets such that the gauge spheres act as nearly single-point-of-contact datums. This approach allows payloads to be tested externally with minimal alignment shifts when re-integrated into the structure and is demonstrated with a 2.2 ÎŒm pixel size CMOS sensor and a 23 mm focal length lens

    Observing a light dark matter beam with neutrino experiments

    Full text link
    We consider the sensitivity of fixed-target neutrino experiments at the luminosity frontier to light stable states, such as those present in models of MeV-scale dark matter. To ensure the correct thermal relic abundance, such states must annihilate via light mediators, which in turn provide an access portal for direct production in colliders or fixed targets. Indeed, this framework endows the neutrino beams produced at fixed-target facilities with a companion `dark matter beam', which may be detected via an excess of elastic scattering events off electrons or nuclei in the (near-)detector. We study the high luminosity proton fixed-target experiments at LSND and MiniBooNE, and determine that the ensuing sensitivity to light dark matter generally surpasses that of other direct probes. For scenarios with a kinetically-mixed U(1)' vector mediator of mass m_V, we find that a large volume of parameter space is excluded for m_DM ~ 1-5 MeV, covering vector masses 2 m_DM < m_V < m_eta and a range of kinetic mixing parameters reaching as low as kappa ~ 10^{-5}. The corresponding MeV-scale dark matter scenarios motivated by an explanation of the galactic 511 keV line are thus strongly constrained.Comment: 19 pages, 5 figures; v2: typos corrected, to appear in Phys. Rev. D; v3: note added clarifying the parameter range excluded by LSN

    ROL DE LAS ELITES EN LOS TERRITORIOS: EL CASO DE TRES FAMILIAS EN CHILE AUSTRAL. OSORNO, SIGLOS XIX Y XX

    Get PDF
    El objetivo de este artículo es en primer&nbsp;lugar, reflexionar sobre el rol de las elites en los&nbsp;territorios, a través de la producción de poder,&nbsp;la generación de identidad, la confección de&nbsp;fronteras internas y externas y la construcción&nbsp;de Estado. En segundo término, este artículo&nbsp;constata dicha reflexión y pone en evidencia&nbsp;la importancia de las elites provinciales, alejadas&nbsp;del centro político-administrativo del&nbsp;país, como lo fue la elite de Osorno durante&nbsp;los siglos XIX y principios del&nbsp; siglo XX. Finalmente,&nbsp;ejemplificamos el rol de esta elite&nbsp;en un territorio particular, dando cuenta del&nbsp;accionar de tres familias de elite en Osorno,&nbsp;demostrando cómo sus pråcticas influyen e&nbsp;impactan en el desarrollo del territorio austral&nbsp;del país

    Digitalisierung des Berichtswesens im Bereich Operative Locomotives and Budget Planning: Methoden aus dem Bereich Business Intelligence der DB Cargo AG

    Get PDF
    Die Masterarbeit ist in Zusammenarbeit mit der DB Cargo AG entstanden. DB Cargo ist ein fĂŒhrender globaler Logistikdienstleister und der grĂ¶ĂŸte Anbieter im SchienengĂŒterverkehr in Europa. Die Gesellschaft gehört zu 100&nbsp;% der Deutschen Bahn AG. Die DB Cargo beschĂ€ftigte im Jahr 2018 28.842 Mitarbeiter und beförderte 255 Millionen Tonnen GĂŒter.Die beteiligten Abteilungen sind das Asset Intelligence Center (u.a. zustĂ€ndig fĂŒr Digitalisierungsprojekte) und Operative Locomotives and Budget Planning. Sie sind beispielsweise fĂŒr die Instandhaltungs- und Trieb-fahrzeugbedarfs-Planung verantwortlich.Aktuell sind die ZeitaufwĂ€nde, die fĂŒr die Erstellung des Berichtswesens benötigt werden, sehr hoch. Dies ist u.a. darauf zurĂŒckzufĂŒhren, dass viele manuelle TĂ€tigkeiten anfallen.Das Ziel dieser Arbeit bestand darin, durch die Digitalisierung eines Teils des Berichtswesens die ZeitaufwĂ€nde signifikant zu verringern. Weiterhin wurden mit der Software Tableau Visualisierungen bereitgestellt, die einen Self-Service-Business-Intelligence-Ansatz unterstĂŒtzen.Durch den Einsatz von Scrum konnten die Anforderungen der Stakeholder agil aufgenommen und gemanagt werden. Zudem sind durch den Einsatz des KDD-Prozesses sowie CRISP-DM die Visualisierungen realisiert worden. Der KDD-Prozess wurde bei festgelegten Visualisierungen eingesetzt. Hingegen wurde CRISP-DM bei Analysen, die eine erweiterte Sicht auf eventuelle ErgebnisansĂ€tze ermöglichen, verwendet. Dieses Vorgehen ermöglichte die RĂŒckmeldungen und Anmerkungen der Stakeholder direkt einzubeziehen.Mit verschiedenen Python-Skripten und dem ZusammenfĂŒhren von Datenquellen wurde eine Teilautomatisierung realisiert. Dadurch sind viele manuelle TĂ€tigkeiten automatisiert worden. Das Aktualisieren der Datenquellen und Starten der Skripte muss allerdings noch manuell erfolgen.Die anschließenden Datenintegrationen in Tableau sind hingegen automatisiert. Durch den Tableau Server werden die durch die Teilautomatisierung bereit-gestellten Datenquellen an jedem Werktag aktualisiert.In Tableau wurde eine grĂ¶ĂŸere Anzahl von Dashboards mit Visualisierungen (Kennzahlen und Analysen) bereit-gestellt. Darunter fallen zum Beispiel Plan-Ist-Vergleiche und Ausreißeranalysen. Die Dashboards besitzen ein identisches Layout im Corporate Design der DB. Es sind die Filtermöglichkeiten und verschiedene Buttons vorhanden, welche die Betrachtung weiterer Dashboards oder der HilfefunktionalitĂ€t ermöglichen.Um die Zielsetzung qualitativ zu ĂŒberprĂŒfen, wurde eine interne Evaluierung anhand der NutzerInnen durch-gefĂŒhrt. Das Ergebnis dieser Evaluierung ist, dass eine geschĂ€tzte Zeitersparnis von einer bis drei Stunden pro Woche bei der Erstellung des Berichtswesens und wiederkehrenden Fragen vorzufinden ist.&nbsp;Insgesamt wird der DB Cargo mit diesem Projekt eine teilautomatisierte Lösung bereitgestellt, die einen Zeitgewinn sowie einen erweiterten Blick auf die Daten im Bereich Self-Service BI ermöglicht.Die Masterarbeit ist in Zusammenarbeit mit der DB Cargo AG entstanden. DB Cargo ist ein fĂŒhrender globaler Logistikdienstleister und der grĂ¶ĂŸte Anbieter im SchienengĂŒterverkehr in Europa. Die Gesellschaft gehört zu 100&nbsp;% der Deutschen Bahn AG. Die DB Cargo beschĂ€ftigte im Jahr 2018 28.842 Mitarbeiter und beförderte 255 Millionen Tonnen GĂŒter.Die beteiligten Abteilungen sind das Asset Intelligence Center (u.a. zustĂ€ndig fĂŒr Digitalisierungsprojekte) und Operative Locomotives and Budget Planning. Sie sind beispielsweise fĂŒr die Instandhaltungs- und Trieb-fahrzeugbedarfs-Planung verantwortlich.Aktuell sind die ZeitaufwĂ€nde, die fĂŒr die Erstellung des Berichtswesens benötigt werden, sehr hoch. Dies ist u.a. darauf zurĂŒckzufĂŒhren, dass viele manuelle TĂ€tigkeiten anfallen.Das Ziel dieser Arbeit bestand darin, durch die Digitalisierung eines Teils des Berichtswesens die ZeitaufwĂ€nde signifikant zu verringern. Weiterhin wurden mit der Software Tableau Visualisierungen bereitgestellt, die einen Self-Service-Business-Intelligence-Ansatz unterstĂŒtzen.Durch den Einsatz von Scrum konnten die Anforderungen der Stakeholder agil aufgenommen und gemanagt werden. Zudem sind durch den Einsatz des KDD-Prozesses sowie CRISP-DM die Visualisierungen realisiert worden. Der KDD-Prozess wurde bei festgelegten Visualisierungen eingesetzt. Hingegen wurde CRISP-DM bei Analysen, die eine erweiterte Sicht auf eventuelle ErgebnisansĂ€tze ermöglichen, verwendet. Dieses Vorgehen ermöglichte die RĂŒckmeldungen und Anmerkungen der Stakeholder direkt einzubeziehen.Mit verschiedenen Python-Skripten und dem ZusammenfĂŒhren von Datenquellen wurde eine Teilautomatisierung realisiert. Dadurch sind viele manuelle TĂ€tigkeiten automatisiert worden. Das Aktualisieren der Datenquellen und Starten der Skripte muss allerdings noch manuell erfolgen.Die anschließenden Datenintegrationen in Tableau sind hingegen automatisiert. Durch den Tableau Server werden die durch die Teilautomatisierung bereit-gestellten Datenquellen an jedem Werktag aktualisiert.In Tableau wurde eine grĂ¶ĂŸere Anzahl von Dashboards mit Visualisierungen (Kennzahlen und Analysen) bereit-gestellt. Darunter fallen zum Beispiel Plan-Ist-Vergleiche und Ausreißeranalysen. Die Dashboards besitzen ein identisches Layout im Corporate Design der DB. Es sind die Filtermöglichkeiten und verschiedene Buttons vorhanden, welche die Betrachtung weiterer Dashboards oder der HilfefunktionalitĂ€t ermöglichen.Um die Zielsetzung qualitativ zu ĂŒberprĂŒfen, wurde eine interne Evaluierung anhand der NutzerInnen durch-gefĂŒhrt. Das Ergebnis dieser Evaluierung ist, dass eine geschĂ€tzte Zeitersparnis von einer bis drei Stunden pro Woche bei der Erstellung des Berichtswesens und wiederkehrenden Fragen vorzufinden ist.&nbsp;Insgesamt wird der DB Cargo mit diesem Projekt eine teilautomatisierte Lösung bereitgestellt, die einen Zeitgewinn sowie einen erweiterten Blick auf die Daten im Bereich Self-Service BI ermöglicht
    • 

    corecore