3,491 research outputs found

    Mutual Information in Frequency and its Application to Measure Cross-Frequency Coupling in Epilepsy

    Full text link
    We define a metric, mutual information in frequency (MI-in-frequency), to detect and quantify the statistical dependence between different frequency components in the data, referred to as cross-frequency coupling and apply it to electrophysiological recordings from the brain to infer cross-frequency coupling. The current metrics used to quantify the cross-frequency coupling in neuroscience cannot detect if two frequency components in non-Gaussian brain recordings are statistically independent or not. Our MI-in-frequency metric, based on Shannon's mutual information between the Cramer's representation of stochastic processes, overcomes this shortcoming and can detect statistical dependence in frequency between non-Gaussian signals. We then describe two data-driven estimators of MI-in-frequency: one based on kernel density estimation and the other based on the nearest neighbor algorithm and validate their performance on simulated data. We then use MI-in-frequency to estimate mutual information between two data streams that are dependent across time, without making any parametric model assumptions. Finally, we use the MI-in- frequency metric to investigate the cross-frequency coupling in seizure onset zone from electrocorticographic recordings during seizures. The inferred cross-frequency coupling characteristics are essential to optimize the spatial and spectral parameters of electrical stimulation based treatments of epilepsy.Comment: This paper is accepted for publication in IEEE Transactions on Signal Processing and contains 15 pages, 9 figures and 1 tabl

    A Robust Method for Detecting Interdependences: Application to Intracranially Recorded EEG

    Full text link
    We present a measure for characterizing statistical relationships between two time sequences. In contrast to commonly used measures like cross-correlations, coherence and mutual information, the proposed measure is non-symmetric and provides information about the direction of interdependence. It is closely related to recent attempts to detect generalized synchronization. However, we do not assume a strict functional relationship between the two time sequences and try to define the measure so as to be robust against noise, and to detect also weak interdependences. We apply our measure to intracranially recorded electroencephalograms of patients suffering from severe epilepsies.Comment: 29 pages, 5 figures, paper accepted for publication in Physica

    Multiscale Information Decomposition: Exact Computation for Multivariate Gaussian Processes

    Get PDF
    Exploiting the theory of state space models, we derive the exact expressions of the information transfer, as well as redundant and synergistic transfer, for coupled Gaussian processes observed at multiple temporal scales. All of the terms, constituting the frameworks known as interaction information decomposition and partial information decomposition, can thus be analytically obtained for different time scales from the parameters of the VAR model that fits the processes. We report the application of the proposed methodology firstly to benchmark Gaussian systems, showing that this class of systems may generate patterns of information decomposition characterized by mainly redundant or synergistic information transfer persisting across multiple time scales or even by the alternating prevalence of redundant and synergistic source interaction depending on the time scale. Then, we apply our method to an important topic in neuroscience, i.e., the detection of causal interactions in human epilepsy networks, for which we show the relevance of partial information decomposition to the detection of multiscale information transfer spreading from the seizure onset zone

    Phase Synchronization Operator for On-Chip Brain Functional Connectivity Computation

    Get PDF
    This paper presents an integer-based digital processor for the calculation of phase synchronization between two neural signals. It is based on the measurement of time periods between two consecutive minima. The simplicity of the approach allows for the use of elementary digital blocks, such as registers, counters, and adders. The processor, fabricated in a 0.18- μ m CMOS process, only occupies 0.05 mm 2 and consumes 15 nW from a 0.5 V supply voltage at a signal input rate of 1024 S/s. These low-area and low-power features make the proposed processor a valuable computing element in closed-loop neural prosthesis for the treatment of neural disorders, such as epilepsy, or for assessing the patterns of correlated activity in neural assemblies through the evaluation of functional connectivity maps.Ministerio de Economía y Competitividad TEC2016-80923-POffice of Naval Research (USA) N00014-19-1-215

    Information-theoretic approach for the characterization of interactions in nonlinear dynamical systems

    Get PDF
    Symbolic time series analysis provides us a solid and broadly used toolkit for the characterization of interactions between nonlinear dynamical systems. In this thesis, information-theoretic measures are evaluated with respect to their capability to characterize interactions between dynamical systems. We investigate several important limitations of these measures which may appear when experimental data exhibit strong correlations. It is demonstrated that a high degree of static and/or long-term temporal correlations can, in general, lead to the incorrect inference of directionality of interactions between underlying dynamical systems. In this thesis, we propose two complementary information-theoretic measures which can provide a better characterization of the directionality of interactions in cases where the influence of such correlations in data cannot be neglected. First, the proposed information-theoretic measures are applied to characterize interactions between dynamical model systems with known equations of motion. Finally, they are applied to characterize interactions between multi-channel electroencephalographic recordings from epilepsy patients undergoing the presurgical diagnostics.Informationstheoretischer Ansatz zur Charakterisierung von Interaktionen in nichtlinearen dynamischen Systemen Mit Hilfe der Zeitreihenanalyse können Interaktionen zwischen natürlichen dynamischen Systemen anhand experimenteller Daten charakterisiert werden. In den letzten Jahren wurde eine Reihe von Maßen vorgestellt, die darauf abzielen, neben der Interaktionsrichtung auch die Interaktionsstärke zu bestimmen. Die zur Charakterisierung von Interaktionsrichtungen konzipierte Transferentropie zeichnet sich gerade durch eine besonders hohe Rauschtoleranz gegenüber anderen Maßen aus. Ziel der vorliegenden Arbeit ist es, zwei Limitationen, die die Interpretierbarkeit der Charakterisierungen mit der bisher vorgeschlagenen Transferentropie einschränken, zu untersuchen und auszuräumen. Zum einen wird ein Verfahren entwickelt und implementiert, mit dem langreichweitige Korrelationen besser beobachtet werden können, zum anderen werden Korrekturen vorgeschlagen, die den Einfluss so genannter statischer Korrelationen berücksichtigen. Bei Charakterisierungen von Interaktionsrichtungen mit Hilfe der Transferentropie konnten langreichweitige Korrelationen nur durch die Abschätzung von hochdimensionalen Wahrscheinlichkeitsräumen berücksichtigt werden. Für diese Abschätzung sind sehr viele Datenpunkte innerhalb des Beobachtungsintervalls notwendig, was bei Felddaten, gemessen an unbekannten Systemen, mit der Annahme der Stationarität in einem Beobachtungsintervall konkurriert. Um diese Beschränkung zu umgehen, wird in dieser Dissertation eine Verallgemeinerung des Konzepts der Entropie im Sinne von Lempel-Ziv auf das Maß der Transferentropie übertragen. Hierdurch können langreichweitige Korrelationen ohne die Abschätzung eines hochdimensionalen Wahrscheinlichkeitsraums bestimmt werden. Zeitgleiche Korrelationen der zugrunde liegenden Signale - so genannte statische Korrelationen - können die Interpretierbarkeit der Charakterisierung einschränken. Zur Berücksichtigung statistischer Korrelationen mit den bisher vorgestellten Maßen war ebenfalls eine mit einem großen Rechenaufwand verbundene Abschätzung hochdimensionaler Wahrscheinlichkeiten notwendig. In der vorliegenden Dissertation wird eine Korrektur der Transferentropie zur Abschätzung der statischen Korrelationen vorgeschlagen, ohne höherdimensionale Terme berechnen zu müssen. Durch die in dieser Arbeit vorgestellten Maße und Korrekturen kann die Charakterisierung der Interaktionsrichtung verbessert werden. Dabei wird anhand prototypischer Modellsysteme mit chaotischen Dynamiken demonstriert, dass die Charakterisierungen mit Hilfe der vorgeschlagenen Maße und Korrekturen gerade bei Systemen, die ohne Zeitversatz interagieren, besser interpretierbar sind. Weiterhin wurden Interaktionsstärke und Interaktionsrichtung an Zeitreihen hirnelektrischer Aktivität von Epilepsiepatienten bestimmt und mit Charakterisierungen der Transferentropie verglichen. Hierbei lässt sich zusammenfassen, dass sich mit den in dieser Arbeit vorgestellten Maßen Kontraste unterschiedlicher Interaktionsrichtungen besser auflösen lassen
    corecore