834 research outputs found

    Call for Papers, Issue 1/2022

    Get PDF

    The CMS Pixel FED

    Get PDF
    The innermost detector of the CMS Experiment consists of 66 million silicon pixels. The hit data has to be read out and must be digitized, synchronized, formatted and transferred over the S-Link to the CMS DAQ. The amount of data can only be handled because the readout chip (ROC) delivers zero-suppressed data above an adjustable threshold for every pixel. The Pixel FED 9U VME module receives an analog optical signal, which is subsequently digitized and processed. The position of the pixel on a module is transmitted with five symbols coded in six pulse height steps each. The data of 36 inputs build a final event data block. The data block from each detector module with either 16 or 24 ROCs differs in length and arrival time. Depending on the data length and trigger rate, there can be a skew of several events between any two inputs. That is possible because the ROC has a multievent time stamp memory and the readout bandwith is limited. Finally the information processed by the Pixel FED will be transferred over the S-Link to the CMS DAQ. Each module must be able to process a trigger rate of 100 kHz or, if in trouble, to send an alarm signal. The number of inputs is limited by the maximum data transmission rate of the S-Link (640 MB/s) for the expected high luminosity of LHC. The data flow on the module is continuously controlled. Errors are written in an error memory, included in the data stream and if critical sent to the general CMS readout control

    Strangeness in the Scalar Form Factor of the Nucleon

    Get PDF
    The scalar form factor of the nucleon and related physical quantities are investigated in the framework of the semibosonized SU(3) Nambu-Jona-Lasinio soliton model. We take into account the rotational 1/Nc1/N_c corrections and linear msm_s corrections. The strangeness content of the nucleon in the scalar form factor is discussed in detail. In particular, it is found that the msm_s corrections play an essential role of reducing the NsˉsN\langle N | \bar{s} s | N \rangle arising from the leading order and rotational 1/Nc1/N_c contributions. We obtain the \sigma_{\pi N} (0)=40.80\;\mbox{MeV}, \Delta \sigma = \sigma_{\pi N} (2m^{2}_{\pi})-\sigma_{\pi N} (0) = 18.18\;\mbox{MeV} and \langle r^2\rangle^{S}_{N} = 1.50\;\mbox{fm}^2. The results are in a remarkable agreement with empirical data analyzed by Gasser, Leutwyler, and Sainio~\cite{gls}.Comment: 13 pages, RevTex is used. 3 figures as uufiles are include

    Fractal Noise in Quantum Ballistic and Diffusive Lattice Systems

    Full text link
    We demonstrate fractal noise in the quantum evolution of wave packets moving either ballistically or diffusively in periodic and quasiperiodic tight-binding lattices, respectively. For the ballistic case with various initial superpositions we obtain a space-time self-affine fractal Ψ(x,t)\Psi(x,t) which verify the predictions by Berry for "a particle in a box", in addition to quantum revivals. For the diffusive case self-similar fractal evolution is also obtained. These universal fractal features of quantum theory might be useful in the field of quantum information, for creating efficient quantum algorithms, and can possibly be detectable in scattering from nanostructures.Comment: 9 pages, 8 postscript figure

    Allocating the Burdens of Climate Action: Consumption-Based Carbon Accounting and the Polluter-Pays Principle

    Get PDF
    Action must be taken to combat climate change. Yet, how the costs of climate action should be allocated among states remains a question. One popular answer—the polluter-pays principle (PPP)—stipulates that those responsible for causing the problem should pay to address it. While intuitively plausible, the PPP has been subjected to withering criticism in recent years. It is timely, following the Paris Agreement, to develop a new version: one that does not focus on historical production-based emissions but rather allocates climate burdens in proportion to each state’s annual consumption-based emissions. This change in carbon accounting results in a fairer and more environmentally effective principle for distributing climate duties

    Formalisierung von Expertenwissen bei der Prognose von Bodenformen in Sachsen-Anhalt

    Get PDF
    Konzeptbodenkarten sind das Ergebnis einer expertenbasierten und maßstabsspezifischen Integration von bodenkundlich relevanten Informationen unterschiedlicher und oftmals unbekannter geometrischer und semantischer Auflösung. Dazu gehören bereits existierende bodenkundliche Kartenwerke (z.B. Bodenschätzung, Forstkartierung, Projektkartierungen, Landeskartenwerke etc.), aber auch bodenkundlich relevante Zusatzinformationen (z.B. digitale Höhen- und Spektraldaten). Bei der Datenintegration kommen in zunehmenden Maße Werkzeuge der digitalen Bodenprognose zum Einsatz. Eine besondere Herausforderung besteht in der nachvollziehbaren Integration von Expertenwissen sowie in der Ableitung von Qualitätsmaßen. Thema des Vortrages ist der Prototyp des Expertensystems ProBoSA zur großmaßstäbigen Prognose von Bodenformen in Sachsen-Anhalt, das im Zuge einer vom Ministerium für Umwelt, Landwirtschaft und Energie Sachsen-Anhalt finanzierten Pilotstudie entwickelt worden ist. Das Expertensystem besteht aus den drei Modulen Merkmalstransformation (MT), Klassifikation (K) und Prognose (P). Die Module MT und K erlauben die Formalisierung von Expertenwissen. Im Modul MT werden alle verfügbaren Boden- und Zusatzdaten in Zielmerkmale mittels Transformationstabellen überführt. Zielmerkmale repräsentieren Bodenbildungsprozesse (z.B. Verbraunung) oder Substratmerkmale (z.B. Sand- oder Kalkgehalt). Die Klassifikation der Zielmerkmale erfolgt entsprechend den Klassenbeschreibungen der bodenkundlichen Kartieranleitung KA 5 mittels Fuzzy-Logik und expertenbasierter Wichtung der Eingangsdaten. Die Klassifikationsergebnisse werden durch Qualitätsmaße charakterisiert, die sich aus den Fuzzy-Klassenzugehörigkeiten ableiten. Die Qualitätsmaße dienen gleichzeitig bei der expertenbasierten Auswahl von Trainingsdatensätzen bei der Anwendung von Data Mining-Algorithmen innerhalb des P-Moduls. Das Prognosemodell wird durch eine interne Modellgenauigkeit charakterisiert. Unabhängige Teststichproben erlauben schließlich eine Einschätzung der Prognosegüte. Die Funktionalitäten sowie die Prognoseergebnisse des Expertensystems ProBoSA werden am Beispiel zweier Testgebiete in Sachsen-Anhalt vorgestellt
    corecore