1,013 research outputs found
Robust a priori and a posteriori error analysis for the approximation of Allen–Cahn and Ginzburg–Landau equations past topological changes
A priori and a posteriori error estimates are derived for the numerical approximation of scalar and complex valued phase field models. Particular attention is devoted to the dependence of the estimates on a small parameter and to the validity of the estimates in the presence of topological changes in the solution that represents singular points in the evolution. For typical singularities the estimates depend on the inverse of the parameter in a polynomial as opposed to exponential dependence of estimates resulting from a straightforward error analysis. The estimates naturally lead to adaptive mesh refinement and coarsening algorithms. Numerical experiments illustrate the reliability and efficiency of this approach for the evolution of interfaces and vortices that undergo topological changes
Strong support for the millisecond pulsar origin of the Galactic center GeV excess
Using gamma-ray data from the Fermi Large Area Telescope, various groups have
identified a clear excess emission in the Inner Galaxy, at energies around a
few GeV. This excess resembles remarkably well a signal from dark-matter
annihilation. One of the most compelling astrophysical interpretations is that
the excess is caused by the combined effect of a previously undetected
population of dim gamma-ray sources. Because of their spectral similarity, the
best candidates are millisecond pulsars. Here, we search for this hypothetical
source population, using a novel approach based on wavelet decomposition of the
gamma-ray sky and the statistics of Gaussian random fields. Using almost seven
years of Fermi-LAT data, we detect a clustering of photons as predicted for the
hypothetical population of millisecond pulsar, with a statistical significance
of 10.0 sigma. For plausible values of the luminosity function, this population
explains 100% of the observed excess emission. We argue that other
extragalactic or Galactic sources, a mismodeling of Galactic diffuse emission,
or the thick-disk population of pulsars are unlikely to account for this
observation.Comment: 6+10 pages, 3+10 figures, 1 table; v2 updated to pass 8 Fermi data,
additional supplemental material with extended discussion (conclusions
unchanged); v3 matches PRL version with further checks (conclusions
unchanged
Model-independent WIMP Characterisation using ISR
The prospects of measuring the parameters of WIMP dark matter in a model
independent way at the International Linear Collider are investigated. The
signal under study is direct WIMP pair production with associated initial state
radiation. The analysis is performed in full simulation of the ILD detector
concept. With an integrated luminosity of L = 500 fb-1 and realistic beam
polarizations the helicity structure of the WIMP couplings to electrons can be
determined, and the masses and cross sections can be measured to the percent
level. The systematic uncertainties are dominated by the polarization
measurement and the luminosity spectrum.Comment: 7 pages, 4 figures, International Workshop on Future Linear Colliders
LCWS1
Measurement of radiative neutralino production
We perform the first experimental study with full detector simulation for the
radiative production of neutralinos at the linear collider, at sqrt{s} = 500
GeV and realistic beam polarizations. We consider all relevant backgrounds,
like the Standard Model background from radiative neutrino production. The
longitudinal polarized beams enhance the signal and simultaneously reduce the
background, such that statistical errors are significantly reduced. We find
that the photon spectrum from the signal process can be well isolated. The
neutralino mass and the cross section can be measured at a few per-cent level,
with the largest systematic uncertainties from the measurement of the beam
polarization and the beam energy spectrum.Comment: 6 pages, 2 figures, to appear in the proceedings of the 2011
International Workshop on Future Linear Colliders (LCWS11), Sept. 26-30,
Granada, Spai
Bergbau und Münzstätten im Harz
Über viele Jahrhunderte hinweg bildete Silber aus den Lagerstätten des Harzes eine wichtige Grundlage der Münzproduktion derjenigen Mächte und Territorialherren, die im Lauf einer wechselvollen Geschichte Anteil am Besitz bzw. der politischen Herrschaft erwarben und somit für die Region Bedeutung erlangten. Die Metallschätze des Harzgebirges bildeten zusammen mit den Ressourcen Wald und Wasser, welche die Grundlagen für die Erzeugung der in der Verarbeitung benötigten Energie darstellten, die hauptsächliche Basis der Ökonomie und des darauf gegründeten sozialen und kulturellen Lebens: Der Harz war über Jahrhunderte hinweg eine weitgehend montanistisch geprägte Gewerbelandschaft. Neben dem für die Münzstätten wichtigen Silber erzeugte man hier Kupfer, Blei, Eisen und Stahl, später Zink und auch Seltenmetalle. In der Wertschöpfung dominierte über Jahrhunderte hinweg das Silber, das hauptsächlich den Münzstätten zufloss. Aus diesem Umstand leitete sich der dominierende Einfluss der jeweils herrschenden Territorialmächte auf das Montanwesen ab, denn sie übten entweder selbst das Münzrecht aus oder vergaben es gegen Abgaben an Dritte. Eine weit reichende Einflussnahme auf das Montanwesen war unabdingbar, um die Münzhoheit praktisch sicherzustellen und aufrecht zu erhalten.
Die grundsätzliche Bedeutung der Lagerstätten des Harzes für das Münzwesen seit dem Mittelalter und bis zur Aufgabe der Silberwährung im letzten Drittel des 19. Jahrhunderts ist seit Langem bekannt und allgemein akzeptiert. Aber hinsichtlich der Bewertung einzelner Lagerstättenkomplexe in diesem Rahmen haben sich durch neuere Forschungen erhebliche Akzentverschiebungen ergeben, auf die nachfolgend eingegangen wird
Entwicklung eines interaktiven computerbasierten Tests für Erklärfähigkeit
Das Erklären physikalischer Sachverhalte wird als eine wichtige Fähigkeit von Physiklehrkräften betrachtet. Gleichzeitig zeigen Studien, dass angehende Lehrkräfte das Erklären solcher Sachverhalte als anspruchsvoll wahrnehmen. Vor diesem Hintergrund wurde von Kulgemeyer und Schecker (2013) bereits ein Modell entwickelt, das den Prozess des Erklärens in einem Dialog zwischen einemExperten (Erklärer / Lehrkraft) und einem Novizen (Adressat / Schüler) beschreibt. Dazu wurde zudem ein Test entwickelt, der die Erklärfähigkeit von Probanden misst (Kulgemeyer und Tomczyszyn 2015). Der Test beruht auf Videoaufzeichnungen des Erklärens von Probandinnen und Probanden. Die aus diesem Test gewonnenen Erkenntnisse können als besonders valide angesehen werden; der Test ist jedoch in Durchführung und Auswertung aufwändig. Im hier vorgestellten Projekt soll ein computerbasierter Kompetenztest entwickelt werden, bei dem die Erklärfähigkeit vonPhysiklehrkräften in großen Stichproben erhoben werden kann. Der Test basiert auf Videovignetten von Erklärsituationen, nach deren Ende die Probanden im two tier multiple choice-Design aufgefordert werden, das weitere, optimale Vorgehen bei der Erklärung auszuwählen und anschließend zu begründen. Mit diesem Test soll der Zusammenhang der Erklärfähigkeit von Lehrkräften und der Lernwirkung bei Schülerinnen und Schülern exploriert werden. Wir erläutern grundlegende Überlegungen bei der Testkonstruktion und stellen eine erste Version des Instruments vor
Entwicklung eines interaktiven computerbasierten Tests für Erklärfähigkeit
Das Erklären physikalischer Sachverhalte wird als eine wichtige Fähigkeit von Physiklehrkräften betrachtet. Gleichzeitig zeigen Studien, dass angehende Lehrkräfte das Erklären solcher Sachverhalte als anspruchsvoll wahrnehmen. Vor diesem Hintergrund wurde von Kulgemeyer und Schecker (2013) bereits ein Modell entwickelt, das den Prozess des Erklärens in einem Dialog zwischen einemExperten (Erklärer / Lehrkraft) und einem Novizen (Adressat / Schüler) beschreibt. Dazu wurde zudem ein Test entwickelt, der die Erklärfähigkeit von Probanden misst (Kulgemeyer und Tomczyszyn 2015). Der Test beruht auf Videoaufzeichnungen des Erklärens von Probandinnen und Probanden. Die aus diesem Test gewonnenen Erkenntnisse können als besonders valide angesehen werden; der Test ist jedoch in Durchführung und Auswertung aufwändig. Im hier vorgestellten Projekt soll ein computerbasierter Kompetenztest entwickelt werden, bei dem die Erklärfähigkeit vonPhysiklehrkräften in großen Stichproben erhoben werden kann. Der Test basiert auf Videovignetten von Erklärsituationen, nach deren Ende die Probanden im two tier multiple choice-Design aufgefordert werden, das weitere, optimale Vorgehen bei der Erklärung auszuwählen und anschließend zu begründen. Mit diesem Test soll der Zusammenhang der Erklärfähigkeit von Lehrkräften und der Lernwirkung bei Schülerinnen und Schülern exploriert werden. Wir erläutern grundlegende Überlegungen bei der Testkonstruktion und stellen eine erste Version des Instruments vor
- …