76 research outputs found

    Renale Effekte des Serinprotease-Inhibitors Aprotinin bei gesunden Mäusen

    Get PDF
    Der Serinprotease-Inhibitor Aprotinin wird in der Herzchirurgie als Antifibrinolytikum eingesetzt und wurde zwischenzeitlich unter anderem wegen renalen Nebenwirkungen vom Markt genommen. Im nephrotischen Mausmodell wurde gezeigt, dass Aprotinin die proteolytische Aktivierung des ENaC und dadurch die Natriumresorption und die Ödementstehung hemmt. In dieser Studie wurde untersucht, ob die renalen Nebenwirkungen von Aprotinin auch bei gesunden Mäusen auf die ENaC-Inhibition zurückzuführen sind. Außerdem sollte geklärt werden, ob die fast vollständige renale Metabolisierung von Aprotinin zu relevanten Schäden im proximalen Tubulus führt. Die Versuchstiere wurden nach den subkutanen Aprotinin- und Placebopelletimplantationen in metabolischen Käfigen gehalten. Dies ermöglichte die Untersuchung der renalen Effekte von Aprotinin unter den Stressmodellen der Niedrigsalzdiät und der medikamentösen ENaC-Blockade mit Triamteren. Diese Arbeit zeigt, dass eine hochdosierte Therapie mit Aprotinin bei gesunden Mäusen mit deutlichen proximal tubulären Schäden und Nierenfunktionsstörungen einhergeht. Es liegt nahe, dass die Schädigungsmuster durch die nachgewiesene proximal tubuläre Akkumulation von Aprotinin induziert werden. Aprotinin führt bei gesunden Mäusen im Gegensatz zu der initialen Hypothese nicht zu einer ENaC-Inhibition, sondern am ehesten bedingt durch die proximal tubulären Schäden zu einer verstärkten ENaC vermittelten Natriumresorption. Die nephrotoxischen Effekte von Aprotinin sind dabei dosisabhängig und werden noch 60 Tage nach Ende der Aprotininfreisetzung nachgewiesen. Die Ergebnisse dieser Studie bieten eine mögliche Erklärung für die erhöhte Inzidenz an Nierenschädigungen im Rahmen der Therapie mit Aprotinin. Im Falle einer fortgesetzten klinischen Anwendung sollte das nachgewiesene nephrotoxische Potenzial von Aprotinin unbedingt beachtet und weitere renale Risikofaktoren und Kontraindikationen definiert werden

    Preparing attosecond coherences by strong-field ionization

    Get PDF
    Strong-field ionization (SFI) has been shown to prepare wave packets with few-femtosecond periods. Here, we explore whether this technique can be extended to the attosecond time scale. We introduce an intuitive model, which is based on the Fourier transform of the subcycle SFI rate, for predicting the bandwidth of ionic states that can be coherently prepared by SFI. The coherent bandwidth decreases considerably with increasing central wavelength of the ionizing pulse but it is much less sensitive to its intensity. Many-body calculations based on time-dependent configuration-interaction singles support these results. The influence of channel interactions and laser-induced dynamics within the ion is discussed. Our results further predict that multicycle femtosecond pulses can coherently prepare subfemtosecond wave packets with higher selectivity and versatility compared to single-cycle pulses with an additional sensitivity to the mutual parity of the prepared states. © 2016 American Physical Society.Alexander von Humboldt FoundationNSF/ITAMPHelmholtz associationDFGERC/307270-ATTOSCOP

    Öko-Saatgut - Mehr als 2 500 Produkte sind in organicXseeds gelistet

    Get PDF
    Die Datenbank organicXseeds verzeichnet das Angebot an ökologischem Saatgut.Was hier aufgeführt ist, gilt nach EU-Öko-Verordnung als verfügbar. . (Vorstellung und Beschreibung der Internet-Datenbank

    Spin-orbit delays in photoemission

    Get PDF
    Attosecond delays between photoelectron wave packets emitted from different electronic shells are now well established. Is there any delay between electrons originating from the same electronic shell but leaving the cation in different fine-structure states? This question is relevant for all attosecond photoemission studies involving heavy elements, be it atoms, molecules or solids. We answer this fundamental question by measuring energy-dependent delays between photoelectron wave packets associated with the P3/22 and P1/22 components of the electronic ground states of Xe+ and Kr+. We observe delays reaching up to 33±6 as in the case of Xe. Our results are compared with two state-of-the-art theories. Whereas both theories quantitatively agree with the results obtained for Kr, neither of them fully reproduces the experimental results in Xe. Performing delay measurements very close to the ionization thresholds, we compare the agreement of several analytical formulas for the continuum-continuum delays with experimental data. Our results show an important influence of spin-orbit coupling on attosecond photoionization delays, highlight the requirement for additional theory development, and offer a precision benchmark for such workWe gratefully acknowledge funding from an ERC Starting Grant (Contract No. 307270-ATTOSCOPE) and the NCCR-MUST, a funding instrument of the Swiss National Science Foundation. S.P. is funded by the Alexander von Humboldt Foundation and by the NSF through a grant to ITAMP. A.S.K. acknowledges support from the Australian Research Council under Discovery Grant No. DP120101805. I.J. and M.H. contributed equally to this work

    Medaillons und Kontorniaten. Antike Sonderprägungen aus der Münzsammlung des Instituts für Klassische Archäologie der Universität Tübingen

    Get PDF
    Zusammenstellung mehrer Beiträge zu Medaillons und Kontorniaten. Antike Sonderprägungen aus der Münzsammlung des Instituts für Klassische Archäologie der Universität Tübingen

    Das Forschungsdatenzentrum der Universität Hamburg

    Get PDF
    The more recent discussion of research data practices at relevant conferences, workshops and respective publications suggest substantially different foci of problems and solutions in managing data between scientific disciplines. There seems to be a particularly profound gap in natural science and humanities whereas social and life sciences are placed somewhere in between. Indeed data centers tailored to the specific needs of a single discipline (physics, chemistry, climate studies) are numerous in science and tend to be nearly absent for a specific humanities subject. While the former ask for and report solutions on scaling up (larger quantities of data can be run by the same application) and scaling out (larger quantities of data can use the same infrastructure), the latter are concerned with the heterogeneity of relatively small amounts of data (long-tail problem) and a divergence of agreed standards; something we may term as cross scaling. In either case, an efficiency problem has to be solved. On the one hand, huge amounts of data have to be handled within an acceptable time frame, on the other hand, many different applications with diverse functionalities have to be handled with an acceptable number of resources.  We would like to argue here that independent from the discipline either optimization problem should be addressed. Throughout the last decade, we have also observed that projects in science diversify and prefer individualized solutions which additionally hints at increasing data heterogeneity in natural science as well while, at the same time, some humanities projects produce petabytes of data. To show the necessity of a differentiated approach, the research data center of Universität Hamburg is offered as a case in point. The evolution of the center specialized in humanities projects to a research data center offering services for the whole university whereas other disciplinary data centers continue to exist side by side illustrates the entire range of tasks of data stewardship. It includes the continuous development of services while getting more and more involved in natural science projects as well as task sharing and communication with other data institutions. A core asset to understand the requirements of each discipline is a multidisciplinary team. Yet, the main organizing principle of the offered services centers around the stages of the data life cycle (1. data creation and deposit, 2. managing active data, 3. data repositories and archives, 4. data catalog and registries). The interdigitation of these stages is paramount in the long term strategy

    Intelligente Vernetzung zur autonomen Fräsbearbeitung von Strukturbauteilen - Ergebnisbericht des BMBF Verbundprojektes TensorMill

    Get PDF
    Digitalisierte Prozesse können zukünftig zu einer intelligenten Fertigung beitragen, um den Herausforderungen einer intelligent vernetzten, autonomen Fertigung von sicherheitsrelevanten Integralbauteilen zu begegnen. Die Herausforderungen hierbei liegen insbesondere in der Aufzeichnung und Extraktion von nutzerrelevanten Daten zur Steigerung der Produktivität bei der Fertigung von sicherheitsrelevanten Integralbauteilen für die Luft- und Raumfahrtbranche. An diesem Punkt hat das Verbundforschungsprojekt „TensorMill“ angesetzt. Ziel des Projekts war es, die Produktivität in der spanenden Fertigung sicherheitsrelevanter Integralbauteile durch die Entwicklung und den Aufbau einer intelligent, vernetzten, autonomen Fertigung zu erhöhen und die Prozesssicherheit zu verbessern. Die intelligente Fertigung soll dabei in der Lage sein, auf möglichst viele Situationen im Fertigungsprozess mit Hilfe von künstlicher Intelligenz (KI) zu reagieren. Für die Implementierung der KI-basierten Lösungen sind im Projekt fortschrittliche Methoden und Vorgehensweisen entstanden, welche es ermöglichen, die Daten von Produktionsmitteln in einer einfachen Form nutzbar zu machen, damit diese einen Mehrwert für Hersteller und Anwender bringen. Die aufbereiteten Daten dienten schließlich der Umsetzung von KI-basierten Lösungen zur prozessparallelen Qualitätsprognose und Werkzeugzustandserkennung. Darüber hinaus wurde ein entwickeltes cyber-physisches Spannsystem entwickelt, um neuartige Ansätze zur Abdrängungskompensation und Echtzeitbewertung der Prozessstabilität zu erforschen

    Research campaign : macroscopic quantum resonators (MAQRO)

    Get PDF
    The objective of the proposed macroscopic quantum resonators (MAQRO) mission is to harness space for achieving long free-fall times, extreme vacuum, nano-gravity, and cryogenic temperatures to test the foundations of physics in macroscopic quantum experiments at the interface with gravity. Developing the necessary technologies, achieving the required sensitivities and providing the necessary isolation of macroscopic quantum systems from their environment will lay the path for developing novel quantum sensors. Earlier studies showed that the proposal is feasible but that several critical challenges remain, and key technologies need to be developed. Recent scientific and technological developments since the original proposal of MAQRO promise the potential for achieving additional science objectives. The proposed research campaign aims to advance the state of the art and to perform the first macroscopic quantum experiments in space. Experiments on the ground, in micro-gravity, and in space will drive the proposed research campaign during the current decade to enable the implementation of MAQRO within the subsequent decade

    Terrestrial Very-Long-Baseline Atom Interferometry:Workshop Summary

    Get PDF
    This document presents a summary of the 2023 Terrestrial Very-Long-Baseline Atom Interferometry Workshop hosted by CERN. The workshop brought together experts from around the world to discuss the exciting developments in large-scale atom interferometer (AI) prototypes and their potential for detecting ultralight dark matter and gravitational waves. The primary objective of the workshop was to lay the groundwork for an international TVLBAI proto-collaboration. This collaboration aims to unite researchers from different institutions to strategize and secure funding for terrestrial large-scale AI projects. The ultimate goal is to create a roadmap detailing the design and technology choices for one or more km-scale detectors, which will be operational in the mid-2030s. The key sections of this report present the physics case and technical challenges, together with a comprehensive overview of the discussions at the workshop together with the main conclusions
    corecore