175 research outputs found
Earth Observation â A Fundamental Input for Crisis Information Systems
Space-borne and airborne earth observation (EO) is a highly valuable source of spatio-temporal information promoting the ability for a rapid up-to-date assessment and (near-) real-time
monitoring of natural or and man-made hazards and disasters. Such information has become indispensable in present-day disaster management activities. Thereby, EO based technologies have a role to play in each of the four phases of the disaster management cycle (i.e. mitigation, preparedness, response and recovery) with applications grouped into three main stages:
- Pre-disaster (preparedness and mitigation): EO-based information extraction for assessing potential spatial distributions and severities of hazards as well as the vulnerability of a focus region for disaster risk evaluation and subsequent mitigation and preparedness activities.
- Event crisis (response): Assessment and monitoring of regional extent and severities of the characteristics and impacts of a disaster to assist rapid crisis management.
- Post-disaster (recovery): EO based information extraction to assist recovery activities.
Within the PHAROS system a wide range of data products are used, which are varying in temporal, spatial and spectral resolution and coverage. The used sensor platforms comprise space-borne satellites and airborne systems, i.e. aircrafts as well as unmanned aerial systems (UAS)
GIS-gestĂŒtzte Beckenanalyse am Beispiel des Französischen Juragebirges
Das Untersuchungsgebiet liegt an der französisch-schweizerischen Grenze. Es erstreckt sich in Nord-SĂŒd-Richtung von 45°45'N nach 47°30'N und in Ost-West-Richtung von 5°30'E nach 7°00'E. Dabei umfasst es das Französische Juragebirge sowie Teile der angrenzenden Molas-se, der Subalpinen Ketten sowie der Französischen Voralpen.
Grundlage fĂŒr die Beckenanalyse war die detaillierte Auswertung von 89 Erdöltiefbohrungen und die geochemische Untersuchungen von Bohrlochproben potentieller Erdölmuttergesteine. Die Ergebnisse aus den Bohrlochprotokollen und den geochemischen Untersuchungen wur-den in eine Bohrlochdatenbank aufgenommen. ZusĂ€tzlich wurden Literaturdaten zur geologi-schen Geschichte, palĂ€ogeographische Karten, WĂ€rmeflusskarten und Bohrlochmessungen verwendet. Die Organisation dieser sehr vielfĂ€ltigen und heterogenen Datenbasis erfolgte in einem palĂ€ogeographischen Informationssystem. Erst die Verwendung dieses PalĂ€oGIS er-möglichte die detaillierte und ĂŒber das gesamte Untersuchungsgebiet einheitliche Rekonstruk-tion der geologischen Ereignisse, die die Grundlage fĂŒr die Modellierung der Subsidenz und der thermischen Geschichte bildete. Das PalĂ€oGIS enthĂ€lt somit alle Daten des konzeptionel-len Modells fĂŒr die DurchfĂŒhrung der Beckenanalyse.
In einem weiteren Schritt wurden Bohrlochkorrelationen (chronostratigraphische und litho-fazielle Profile) erstellt. Diese vermitteln ein Bild der fĂŒr die vorliegende Arbeit relevanten Gesteinseinheiten zur Zeit der Ablagerung und heute.
Im Anschluss daran erfolgte eine Rekonstruktion der Subsidenzgeschichte. Das konzeptionel-le Modell fĂŒr die Subsidenzanalyse setzt sich in erster Linie aus der Lithostratigraphie und der Chronostratigraphie der zu untersuchenden Einheiten zusammen. Da die Auswertung der Bohrlochprotokolle zum groĂen Teil nur lithostratigraphische Informationen ergab, mussten in einem zweiten Schritt diese lokalen lithostratigraphischen Einheiten in ein global gĂŒltiges, chronostratigraphisches ZeitgerĂŒst eingeordnet werden. Daneben bilden eustatische Meeres-spiegelschwankungen, palĂ€obathymetrische Daten sowie Dichte und PorositĂ€t der beteiligten Gesteine wichtige Bestandteile des konzeptionellen Modells. Wichtigstes Ergebnis der Subsi-denzanalyse sind die Subsidenzkurven, die den rein tektonischen Anteil der Subsidenz dar-stellen. Dieser tektonische Anteil der Subsidenz wird durch Korrektur der Gesamtsubsidenz um den Einfluss der sedimentĂ€ren Subsidenz gewonnen, wobei Kompaktion, eustatischen Meeresspiegelschwankungen und PalĂ€obathymetrie berĂŒcksichtigt werden (Backstripping-Verfahren).
Diese Subsidenzkurven stellen wiederum den wichtigsten Eingangsparameter fĂŒr die Model-lierung der thermischen Geschichte dar. Weitere wichtige Parameter fĂŒr die numerische Mo-dellierung der thermischen Geschichte sind der WĂ€rmefluss an der ErdoberflĂ€che und an der Basis der LithosphĂ€re, PalĂ€o-OberflĂ€chentemperaturen sowie WĂ€rmeleitfĂ€higkeit und spezi-fische WĂ€rmekapazitĂ€t der beteiligten geologischen Einheiten. Ergebnis der thermischen Mo-dellierung ist u.a. die MaturitĂ€t bestimmter Zielhorizonte. Die Kalibrierung des thermischen Modells erfolgt indirekt ĂŒber im Labor ermittelte, geochemische MaturitĂ€tsparameter (Werte der Vitrinit-Reflexion, Tmax-Parameter).
PorositĂ€t und PermeabilitĂ€t, die wichtigsten Eigenschaften eines Speichergesteins, wurden fĂŒr den Horizont des Buntsandsteins aus geophysikalischen Bohrlochmessungen berechnet. Die PermeabilitĂ€t wurde hierbei mit Hilfe des Tongehalts abgeschĂ€tzt.
Die flÀchenhafte Interpolation der zunÀchst punktuell vorliegenden Ergebnisse aus Geoche-mie, Subsidenzanalyse und thermischer Modellierung erfolgte mit Hilfe geostatistischer Ver-fahren (Variogramm-Analyse, Kriging, Kreuzvalidierung).
Auf Basis all dieser oben aufgefĂŒhrten Untersuchungsergebnisse wurde ein Modell fĂŒr die Genese von Kohlenwasserstoffen im Arbeitsgebiet erstellt. Neben reifen Muttergesteinen (Permokarbon), einem wirtschaftlichen Speichergestein (Buntsandstein) und vorhandenem Deckgestein (Muschelkalk) existieren auch Fallenstrukturen (permokarbonischer Blockschol-lenbau, synsedimentĂ€re Abschiebungen der Trias und des Lias), deren Bildung dem Beginn der Migration vorausgeht. Somit sind alle theoretischen Voraussetzungen fĂŒr die Existenz von KohlenwasserstofflagerstĂ€tten gegeben. Offen bleibt die Frage, wo permokarbonische Mut-tergesteine von genĂŒgender MĂ€chtigkeit tatsĂ€chlich abgelagert wurden sowie die genaue Lage der Fallenstrukturen. Dies bleibt als Aufgabe fĂŒr weitere ExplorationstĂ€tigkeiten, die am aus-sichtsreichsten in den Gebieten erscheinen, in denen permische GrĂ€ben lokalisiert sind
Verfeinerte Fehlerdetektion fĂŒr Niederspannungs-Gleichstromnetze : Modellierung, EinflussgröĂenanalyse und Identifikationsverfahren
Until the turn of millennium, low-voltage direct-current grids were mainly used in automation, lighting and telecommunication applications with extra-low system voltage or in
railway technologies. With high installation rates of photovoltaic systems in the last two
decades and due to the current transition to electric cars, they gained greater importance.
DC microgrids including regenerative sources and batteries with a typical system voltage
of 380V are now used to supply data centers, first test installations with higher system
voltage can also be found in industrial production plants.
Common AC system protection is only partially transferable to DC applications. In DC
grids, source, load, and storage units are connected using DC-DC converters â accordingly
there is a limitation of maximum continuous short-circuit current and power in the event
of a cross fault between two conductors or one conductor and earth. The occurrence
of high transient current peaks when loads are energized or changed, as well as load
converter readjustment caused by fault events must be taken into account for the design
of overcurrent circuit protection devices.
The detection of serial fault events also plays a crucial role in DC-grids. Depending on
the characteristics of the equipment, stable arcs can occur between damaged cables or at
loose connectors and may ignite insulators, leading to consequential damage.
In addition to a special design of switching devices and to high-level condition monitoring,
model-based methods using voltage and current measurements can be applied for
refined fault identification. Suitable component and fault models have to be combined to
form a system model.
If a majority of system parameters and the physics of potential faults are considered
to be known, suitable protective devices can be selected or adapted. If there is only
little previous knowledge of the parameterization, measurements during switching or load
change events can be evaluated using suitable system identification methods. Gradient
descent, instrumental variable or particle swarm methods for linear time invariant or for
generalized models have been set up or adapted and are used for data collected in test
setups.
As a result, it can be stated that it makes sense to use data recorded during the first
short period of time after the occurrence of an event in order to apply a linear model.
The initial signal behavior at the load outlet is mainly affected by linearizable elements representing source converter output characteristics, line segments as well as load converter
input characteristics.
The obtained parameter sets for specific events can further be validated by methods of
unsupervised machine learning. Recorded events with high model error can be sorted out,
those with low model error can be categorized with the help of clustering methods.
With a resulting parametrized system description including potential fault models,
occurring faults can be clearly distinguished from other events during nominal operation.
The number of false-positive or false-negative classification results is minimized. In addition,
model-based pattern recognition methods for real-time application can be set up.
The presented methodologies were specified and validated using two case studies. In a
first example, a distribution grid with a system voltage of 24V and with LED-modules as
loads was monitored using data from a single current sensor. Loose contact events have
been assigned to the individual load circuit. In a second example, model-based methods
in order to detect serial faults including arc faults in a transmission line of a grid with
380V operating voltage have been set up. First results using a microcontroller-circuit with
implemented fault identification algorithms are presented for a first case example.Waren bis zur Jahrtausendwende Niederspannungs-Gleichstromnetze auĂerhalb der Bahntechnik nur in Anwendungen mit geringer Betriebsspannung in der Automatisierungs- und Beleuchtungstechnik sowie in der Telekommunikation gebrĂ€uchlich, erfuhren in den letzten Jahrzehnten mit dem Ausbau von Photovoltaikanlagen und im Bereich der ElektromobilitĂ€t DC-Anwendungen eine immer gröĂere Bedeutung. DC-Verteilnetze mit Anbindung von regenerativen Quellen und Batteriespeichern, sogenannte DC-Microgrids, werden mittlerweile zur Versorgung von Rechenzentren bei einer typischen Betriebsspannung von 380V eingesetzt, erste Testinstallationen bei höherer Betriebsspannungen finden sich auch in industriellen Fertigungsanlagen.
GebrĂ€uchliche Schutzkonzepte aus der âAC-Weltâ sind nur teilweise auf DC-Netze
ĂŒbertragbar. In der Regel sind dort Quellen-, Lasten- und Speichereinheiten mittels
Wandlerkomponenten ĂŒber einen DC-Energiebus verknĂŒpft â entsprechend liegt eine
BeschrÀnkung des maximalen Dauerkurzschlussstroms und der umgesetzten Leistung
im Fall eines Querfehlers zwischen zwei Leitern oder einem Leiter und Erde vor. Eine
spezifische Anpassung von Ăberstromschutzorganen muss dabei das Auftreten ggf. hoher
transienter Stromspitzen bei EinschaltvorgÀngen oder Lastwechseln und die Nachregelung
von Lastenkomponenten bei eintretenden Fehlersituationen berĂŒcksichtigen.
Auch die Detektion serieller Fehlersituationen spielt bei DC-Netzen eine wesentlich
gewichtigere Rolle, als es bei AC-Anwendungen der Fall ist. Je nach Anlagencharakteristika
können an beschĂ€digten Kabeln oder an lockeren Verbindungsstellen stabile Fehlerlichtbögen auftreten, welche umgebende Isoliermaterialien entzĂŒnden und zu FolgeschĂ€den fĂŒhren können.
Neben einer speziellen Konzeption von Schaltorganen und der Einbindung ĂŒbergeordneter
ZustandsĂŒberwachung können modellbasierte Methoden eingesetzt werden, die
Spannungs- und Strommessungen unter Verwendung lokaler Sensorik am jeweiligen Lastabgang nutzen. Damit wird eine verfeinerte Fehleridentifikation ermöglicht, welche potenzielle Fehlersituationen klar und binnen einer kurzen Zeitspanne von im Nennbetrieb auftretenden Ereignissen abgrenzt. Speziell interessieren im Rahmen der Aufgabenstellung serielle Fehler im Bereich der Verkabelung zwischen den Komponenten. Weiter werden die AnwendungsfĂ€lle dahingehend eingegrenzt, dass in der Regel von abschnittsweise gleichförmigem Lastverhalten ausgegangen wird â Lastwechsel und viele potenzielle Fehlersituationen lassen sich dann als kurze transiente Einzelereignisse charakterisieren.
Ein erster Schwerpunkt der vorliegenden Arbeit ist es, geeignete Komponenten- und
Fehlermodelle zu erstellen, welche zum Systemmodell kombiniert werden. Auf Basis dessen
sind dann EinflussgröĂenanalysen zur Auslegung der GrundfunktionalitĂ€t von Schutzorganen
möglich, wenn zumindest ein gröĂerer Teil der Komponenten- und Fehlerparameter als
bekannt gilt. Dabei sind möglichst einfache und verallgemeinerte Modellstrukturen fĂŒr die
Komponenten zu wÀhlen, um die wesentliche Grundcharakteristik im Nennarbeitsbereich
als auch in Fehlersituationen abzubilden.
Liegen nur geringe Vorkenntnisse ĂŒber die Parametrierung vor, können fehlende Werte
anhand der topologischen Modellstruktur und mittels Messungen an im Betrieb auftretenden transienten Ereignissen, wie z. B. Zuschalten von Baugruppen oder Lastwechsel, bestimmt werden. Hierzu werden fĂŒr lineare zeitinvariante oder fĂŒr verallgemeinerte Modellstrukturen geeignete Systemidentifikationsmethoden genutzt. Vorgabe ist dabei ein geringer Anspruch an Rechenzeit und Arbeitsspeicher, um auch auf lokalen Mikrocontrollern eingesetzt werden zu können.
Als Hauptpunkt der vorliegenden Arbeit wurden verschiedene Identifikationsmethoden
â z. B. aufgabenspezifische Gradientenabstiegsverfahren, Instrumentalvariablenverfahren
oder Konzepte basierend auf PartikelschwĂ€rmen â hierzu neu erstellt oder angepasst und
erweitert. Ihre Eignung zur Identifikation von Parametern abstrahierter modularer Modelle
von DC-Netzen wurde anhand von Messungen an praxisnahen Testaufbauten ĂŒberprĂŒft
und verglichen. Wichtig war dabei, mögliche AusfÀlle der sensorischen Datenerfassung
und zeitliche VersĂ€tze zwischen Ereignisbeginn und dem Ăber- oder Unterschreiten einer
adaptiven Triggerschwelle zu berĂŒcksichtigen.
Dabei konnte festgestellt werden, dass eine Fokussierung auf den ersten kurzen Zeitabschnitt nach Ereigniseintritt bei einer Verwendung von Modellen niedriger Ordnung
zielfĂŒhrend ist. Das anfĂ€ngliche Signalverhalten an den Sensoren am Lastabgang wird
sowohl fĂŒr Last- oder Sollwertwechsel als auch fĂŒr serielle Kabelfehler durch die linearisierbaren passiven und aktiven Ersatzelemente der Masche dominiert, welche durch die Ausgangsklemmen des Quellwandlers, durch die Kabelstrecken und durch die Eingangsklemmen des Lastwandlers aufgespannt wird. Wesentlich schwieriger zu interpretierende nichtlineare Nachregelprozesse und zweitrangige Ausgleichsprozesse treten erst spĂ€ter in den Vordergrund.
Eine derartige Kondensierung der transiente Ereignisse beschreibenden Messdaten
auf ParametersĂ€tze geringer GröĂe kann weiter durch Methoden des unĂŒberwachten
maschinellen Lernens validiert werden. Partitionierende oder dichtebasierte Clustering-
Methoden bieten sich an, erfasste Ereignisse mit hohem Modellfehler auszusortieren und die verbleibenden in unterschiedliche Ereignisarten zu kategorisieren. Verschiedene KenngröĂen können zur Beurteilung des Clustering-Prozesses ermittelt werden.
Mit einer dann resultierenden Systembeschreibung unter Einbeziehung potenzieller
Fehlermodelle können im folgenden Betrieb Fehler deutlich von Ereignissen im Nennbetrieb
abgegrenzt werden und die Anteile falsch-positiver oder falsch-negativer Kategorisierungen
minimiert werden. Hilfreich sind dabei auf Basis des parametrisierten Gesamtmodells
erstellte Signalmuster, die verschiedene Arbeitspunkte und Fehlersituationen abbilden und
fĂŒr einen echtzeitfĂ€higen Signalmustervergleich eingesetzt werden können.
Derartige entwickelte Methodiken wurden an zwei realitÀtsnahen Fallbeispielen spezifiziert
und validiert. Einerseits wurde ein Verteilnetz mit LED-Baugruppen als geregelte
Lasten bei einer Systemspannung von 24V ĂŒberwacht. Auftretende Wackelkontakte werden
bei zentraler Sensierung unter Verwendung eines Stromsensors den einzelnen Leitungsstrecken zugeordnet. In einem zweiten Beispiel wurde ein Ăberwachungskonzept auf serielle Fehler fĂŒr eine Ăbertragungsleitung in einem Netz mit 380V Betriebsspannung erstellt. Dabei sind unterschiedliche Regelungsmodi der Lastenbaugruppe zu berĂŒcksichtigen.
Weiter kann von ersten Ergebnissen beim Einsatz eines Funktionsmusters auf Basis
einer Mikrocontrollerschaltung mit implementierten Algorithmen zur Fehleridentifikation
berichtet werden
A multi-scale flood monitoring system based on fully automatic MODIS and TerraSAR-X processing chains
A two-component fully automated flood monitoring system is described and evaluated. This is a result of combining two individual flood services that are currently
under development at DLRâs (German Aerospace Center) Center for Satellite based Crisis Information (ZKI) to rapidly support disaster management activities. A first-phase monitoring component of the system systematically detects potential flood events on a
continental scale using daily-acquired medium spatial resolution optical data from the Moderate Resolution Imaging Spectroradiometer (MODIS). A threshold set controls the activation of the second-phase crisis component of the system, which derives flood information at higher spatial detail using a Synthetic Aperture Radar (SAR) based satellite mission (TerraSAR-X). The proposed activation procedure finds use in the identification of flood situations in different spatial resolutions and in the time-critical and on demand
programming of SAR satellite acquisitions at an early stage of an evolving flood situation. The automated processing chains of the MODIS (MFS) and the TerraSAR-X Flood Service (TFS) include data pre-processing, the computation and adaptation of global auxiliary data, thematic classification, and the subsequent dissemination of flood maps using an interactive web-client. The system is operationally demonstrated and evaluated via the monitoring two recent flood events in Russia 2013 and Albania/Montenegro 2013
Octamer-binding factor 6 (Oct-6/Pou3f1) is induced by interferon and contributes to dsRNA-mediated transcriptional responses
<p>Abstract</p> <p>Background</p> <p>Octamer-binding factor 6 (Oct-6, Pou3f1, SCIP, Tst-1) is a transcription factor of the Pit-Oct-Unc (POU) family. POU proteins regulate key developmental processes and have been identified from a diverse range of species. Oct-6 expression is described to be confined to the developing brain, Schwann cells, oligodendrocyte precursors, testes, and skin. Its function is primarily characterised in Schwann cells, where it is required for correctly timed transition to the myelinating state. In the present study, we report that Oct-6 is an interferon (IFN)-inducible protein and show for the first time expression in murine fibroblasts and macrophages.</p> <p>Results</p> <p>Oct-6 was induced by type I and type II IFN, but not by interleukin-6. Induction of Oct-6 after IFNÎČ treatment was mainly dependent on signal transducer and activator of transcription 1 (Stat1) and partially on tyrosine kinase 2 (Tyk2). Chromatin immunopreciptitation experiments revealed binding of Stat1 to the Oct-6 promoter in a region around 500 bp upstream of the transcription start site, a region different from the downstream regulatory element involved in Schwann cell-specific Oct-6 expression. Oct-6 was also induced by dsRNA treatment and during viral infections, in both cases <it>via </it>autocrine/paracrine actions of IFNα/ÎČ. Using microarray and RT-qPCR, we furthermore show that Oct-6 is involved in the regulation of transcriptional responses to dsRNA, in particular in the gene regulation of serine/threonine protein kinase 40 (<it>Stk40</it>) and U7 snRNA-associated Sm-like protein Lsm10 (<it>Lsm10)</it>.</p> <p>Conclusion</p> <p>Our data show that Oct-6 expression is not as restricted as previously assumed. Induction of Oct-6 by IFNs and viruses in at least two different cell types, and involvement of Oct-6 in gene regulation after dsRNA treatment, suggest novel functions of Oct-6 in innate immune responses.</p
Sub-pixel correlation length neutron imaging:Spatially resolved scattering information of microstructures on a macroscopic scale
Neutron imaging and scattering give data of significantly different nature and traditional methods leave a gap of accessible structure sizes at around 10 micrometers. Only in recent years overlap in the probed size ranges could be achieved by independent application of high resolution scattering and imaging methods, however without providing full structural information when microstructures vary on a macroscopic scale. In this study we show how quantitative neutron dark-field imaging with a novel experimental approach provides both sub-pixel resolution with respect to microscopic correlation lengths and imaging of macroscopic variations of the microstructure. Thus it provides combined information on multiple length scales. A dispersion of micrometer sized polystyrene colloids was chosen as a model system to study gravity induced crystallisation of microspheres on a macro scale, including the identification of ordered as well as unordered phases. Our results pave the way to study heterogeneous systems locally in a previously impossible manner.ISSN:2045-232
MCLFIQ: Mobile Contactless Fingerprint Image Quality
We propose MCLFIQ: Mobile Contactless Fingerprint Image Quality, the first
quality assessment algorithm for mobile contactless fingerprint samples. To
this end, we re-trained the NIST Fingerprint Image Quality (NFIQ) 2 method,
which was originally designed for contact-based fingerprints, with a synthetic
contactless fingerprint database. We evaluate the predictive performance of the
resulting MCLFIQ model in terms of Error-vs.-Discard Characteristic (EDC)
curves on three real-world contactless fingerprint databases using three
recognition algorithms. In experiments, the MCLFIQ method is compared against
the original NFIQ 2.2 method, a sharpness-based quality assessment algorithm
developed for contactless fingerprint images \rev{and the general purpose image
quality assessment method BRISQUE. Furthermore, benchmarks on four
contact-based fingerprint datasets are also conducted.}
Obtained results show that the fine-tuning of NFIQ 2 on synthetic contactless
fingerprints is a viable alternative to training on real databases. Moreover,
the evaluation shows that our MCLFIQ method works more accurate and robust
compared to all baseline methods on contactless fingerprints. We suggest
considering the proposed MCLFIQ method as a \rev{starting point for the
development of} a new standard algorithm for contactless fingerprint quality
assessment
Populism and inequality: Does reality match the populist rhetoric?
Populists since the Roman Republic have argued for redistribution from an elite to ordinary
people and depicted themselves as the true representative of the âpeopleâ. However, very
little research has explored whether populists actually affect the distribution of income or
consumption when in power. The present paper therefore asks, whether populists admin-
istrations actually achieve redistribution. After a short theoretical discussion, our empirical
strategy combines new data on populism in Latin America and the Caribbean with infor-
mation on income and consumption inequality since 1970. Estimates suggest that populist
governments in the region generally have achieved no redistribution, leading us to con-
clude that the redistributive aims of populists are mainly empty rhetoric
Ketogenic diet and fasting diet as Nutritional Approaches in Multiple Sclerosis (NAMS): protocol of a randomized controlled study
BACKGROUND:
Multiple sclerosis (MS) is the most common inflammatory disease of the central nervous system in young adults that may lead to progressive disability. Since pharmacological treatments may have substantial side effects, there is a need for complementary treatment options such as specific dietary approaches. Ketone bodies that are produced during fasting diets (FDs) and ketogenic diets (KDs) are an alternative and presumably more efficient energy source for the brain. Studies on mice with experimental autoimmune encephalomyelitis showed beneficial effects of KDs and FDs on disease progression, disability, cognition and inflammatory markers. However, clinical evidence on these diets is scarce. In the clinical study protocol presented here, we investigate whether a KD and a FD are superior to a standard diet (SD) in terms of therapeutic effects and disease progression.
METHODS:
This study is a single-center, randomized, controlled, parallel-group study. One hundred and eleven patients with relapsing-remitting MS with current disease activity and stable immunomodulatory therapy or no disease-modifying therapy will be randomized to one of three 18-month dietary interventions: a KD with a restricted carbohydrate intake of 20-40âg/day; a FD with a 7-day fast every 6âmonths and 14-h daily intermittent fasting in between; and a fat-modified SD as recommended by the German Nutrition Society. The primary outcome measure is the number of new T2-weighted MRI lesions after 18âmonths. Secondary endpoints are safety, changes in relapse rate, disability progression, fatigue, depression, cognition, quality of life, changes of gut microbiome as well as markers of inflammation, oxidative stress and autophagy. Safety and feasibility will also be assessed.
DISCUSSION:
Preclinical data suggest that a KD and a FD may modulate immunity, reduce disease severity and promote remyelination in the mouse model of MS. However, clinical evidence is lacking. This study is the first clinical study investigating the effects of a KD and a FD on disease progression of MS
- âŠ