2,348 research outputs found

    Robust approach for depth of anaesthesia assessment based on hybrid transform and statistical features

    Get PDF
    To develop an accurate and efficient depth of anaesthesia (DoA) assessment technique that could help anaesthesiologists to trace the patient’s anaesthetic state during surgery, a new automated DoA approach was proposed. It applied Wavelet-Fourier analysis (WFA) to extract the statistical characteristics from an anaesthetic EEG signal and to designed a new DoA index. In this proposed method, firstly, the wavelet transform was applied to a denoised EEG signal, and a Fast Fourier transform was then applied to the wavelet detail coefficient D3. Ten statistical features were extracted and analysed, and from these, five features were selected for designing a new index for the DoA assessment. Finally, a new DoA (WFADoA) was developed and compared with the most popular bispectral index (BIS) monitor. The results from the testing set showed that there were very high correlations between the WFADoA and the BIS index during the awake, light and deep anaesthetic stages. In the case of poor signal quality, the BIS index and the WFADoA were also tested, and the obtained results demonstrated that the WFADoA could indicate the DoA values, while the BIS failed to show valid outputs for those situations

    Predictive modelling of Loss Of Consciousness under general anaesthesia

    Get PDF
    Treballs Finals de Grau d'Enginyeria Biomèdica. Facultat de Medicina i Ciències de la Salut. Universitat de Barcelona. Curs: 2021-2022. Director: Pedro L. Gambú

    Improving operating room schedule in a portuguese hospital : a machine learning approach to predict operating room time

    Get PDF
    Tese de Mestrado, Engenharia Biomédica e Biofísica, 2022, Universidade de Lisboa, Faculdade de CiênciasFor most hospitals, the operating room (OR) is a significant source of expenses and income. A critical point of effective OR scheduling is the prediction of OR time for a patient procedure. An inefficient schedule results in two scenarios: underestimated or overestimated OR times. A solution reported in the literature is the implementation of machine learning (ML) models that include additional variables to improve the accuracy of these predictions. This project goal is to improve the OR schedule efficiency in a hospital center by achieving precise OR time predictions. This goal was accomplished by developing two ML models (Multiple Linear Regression (MLR) and Random Forest (RF)), through two different approaches. Firstly, for all the specialties on the dataset (All Specialties Model). Second, a specialty-specific model for each (Urology, General Surgery, and Orthopedics Models). This leads to eight models where the predictive features were identified based on the literature along with consultations with the professionals. The All Specialties Model presented a surgery median time of 115.0 minutes, with an R-squared surrounding 0.7. Urology had a median time of 70.0 minutes, with an R-squared of 0.822 and 0.831 and a MAE of 21.7 and 20.9 minutes for MLR and RF models, respectively. General Surgery had a median time of 110.0 minutes with an R-squared of 0.826 and 0.825 and a MAE of 26.2 and 26.1 minutes for MLR and RF, respectively. For Orthopedics, the RF was the only one able to model all the data with an R-squared of 0.683 and a MAE of 27.1 minutes. When compared with the current methods, considering a 10% threshold, the models achieved reductions in underestimation surgeries (41%), and an increase of within predictions (19%). However, with a 22% increase in overestimation predictions. We conclude that using ML approaches improve the accuracy of OR time predictions.O bloco operatório representa uma das unidades que gera maior despesas e receitas a nível hospitalar. Trata-se de um ambiente altamente complexo, onde é necessário alocar recursos materiais e humanos que são extremamente dispendiosos. Desta forma, o bloco operatório necessita de ser gerido de forma eficiente para garantir que o investimento inicialmente feito tem o seu retorno e é utilizado no seu máximo potencial. Paralelamente, os hospitais públicos, integrados no Serviço Nacional de Saúde, apresentam longas listas de espera às quais necessitam de dar resposta. Esta crescente demanda por serviços de saúde, que exige tratamento a nível de bloco operatório, é agravada pelo envelhecimento populacional, e leva a que todos os profissionais envolvidos neste ambiente coloquem os seus esforços no sentido de garantir que toda a população tem as suas necessidades asseguradas. Um ponto fulcral no problema descrito passa por, numa primeira instância, garantir um agendamento cirúrgico eficiente. Quando um paciente é eleito para uma cirurgia programável, cirurgia eletiva, é colocado em lista de espera e feito o seu agendamento, para mais tarde realizar o respetivo procedimento cirúrgico. No momento do agendamento é necessária a informação do tempo de sala de operação que o paciente irá requerer, para reservar o bloco de tempo de sala adequado ao seu procedimento cirúrgico. Um agendamento cirúrgico ineficiente pode gerar dois diferentes cenários que não são desejáveis. Por um lado, se existir uma subestimação do tempo de sala, situação em que o tempo previsto é inferior ao real, leva a que a cirurgia seja mais longa que o estimado e, consequentemente, atrase as operações seguintes. No pior dos cenários há operações que são canceladas. Por outro lado, se há uma sobrestimação, a cirurgia levou menos tempo que o estimado, não há um aproveitamento total dos recursos da sala de operação. Na maioria dos hospitais, esta previsão de tempo de sala é feita com base na experiência do cirurgião e a implementação de ferramentas de inteligência artificial para executar esta tarefa ainda é escassa. Este tipo de previsão leva a um elevado número de cirurgias subestimadas, pois o cirurgião, na sua maioria, não tem em consideração fatores do paciente e anestésicos que impactam o tempo de sala considerando, na maioria das vezes, somente o tempo necessário à cirurgia em si. Além disso, o cirurgião tende a alocar o maior número de cirurgias num curto bloco de tempo, o que leva a uma previsão irrealista. Uma solução apontada na literatura é a implementação de algoritmos de aprendizagem automática para o desenvolvimento de modelos que implementem variáveis associadas ao paciente, operacionais, anestésicas e relacionadas com o staff. Este tipo de abordagens mostrou melhorar a precisão na previsão do tempo de sala. O projeto apresentado foi baseado numa metodologia que, primeiramente, permitiu a compreensão dos métodos praticados no centro hospitalar abordado no projeto, o Centro Hospitalar Lisboa Central (CHULC), a validação da relevância do projeto e como objetivo principal, o aumento da eficiência do bloco operatório através da melhoria na precisão da predição do tempo de sala. Toda a metodologia foi desenvolvida tendo como fundamento a base de dados fornecida por esta instituição que contém todas as cirurgias relativas às especialidades de Urologia, Cirurgia Geral e Ortopedia realizadas nos últimos cinco anos (janeiro de 2017 a dezembro de 2021). Para alcançar o objetivo central de melhorar a predição do tempo de sala, foram propostos dois modelos de aprendizagem automática, cujo output é o tempo de sala, um modelo de regressão linear múltipla e de uma floresta aleatória (em inglês designado por Random Forest- RF) segundo duas abordagens. A primeira abordagem consistiu no desenvolvimento de um modelo único para todas as três especialidades apresentadas na base de dados e a segunda num modelo específico para cada especialidade individual. O que conduziu a um total de oito modelos, uma vez que em cada abordagem ambos os algoritmos de regressão linear múltipla e de RF foram implementados. As variáveis com potencial valor preditivo da base de dados do CHULC foram identificadas com base na revisão de literatura assim como em reuniões marcadas com os diretores de serviço das especialidades abordadas, administradores hospitalares e anestesiologistas. Uma vez abordada a metodologia atualmente implementada no CHULC para a previsão do tempo de sala, que é baseada na experiência do próprio cirurgião, foi avaliado o impacto do tempo controlado pelo cirurgião e relativo à anestesia no tempo de sala. O tempo controlado pelo cirurgião apresentou a maior correlação com o tempo de sala, com um coeficiente de Pearson de 0,966 seguido do tempo anestésico, com um coeficiente de 0,686. A elevada correlação do tempo controlado pelo cirurgião com o tempo de sala indica que, por um lado, a forma como a predição do tempo de sala é praticada atualmente não é totalmente errada, mas, por outro lado, não é tão realistas já que não considera todos os fatores que influenciam este tempo. Ao incluir as variáveis relativas ao paciente, hospital e anestesia nos oito modelos propostos, para uma mediana de tempo de sala de 115,0 minutos, o modelo de regressão linear relativo a todas as especialidades obteve um R-quadrado de 0,780 acompanhado por um erro médio absoluto de 26,9 minutos. Os modelos de Urologia apresentaram um R-quadrado de 0,822 e 0,831 e um erro médio de 21,7 e 20,9 minutos para o modelo de regressão linear e de RF, respetivamente, com uma mediana de cirurgia de 70,0 minutos. Para a Cirurgia Geral, a mediana de cirurgia é de 110,0 minutos com um R-quadrado de 0,826 e 0,825 e um erro médio de 26,2 e 26,1 minutos para os modelos de regressão linear e RF, respetivamente. No modelo de Ortopedia, o algoritmo de RF foi o único capaz de modelar todos os dados desta especialidade com um R-quadrado de 0,683 e um erro médio de 27,1 minutos, para uma mediana de cirurgia de 130,0 minutos. Nesta especialidade, a regressão linear conseguiu moldar todas as cirurgias com exceção das cirurgias relativas ao joelho e anca, com um R-quadrado de 0,685 e erro médio de 28,9 minutos. As possíveis causas foram levantadas e descritas em maior detalhe, a elevada variabilidade entre procedimentos e o perfil de doentes (polidiagnosticados e polimedicados) foram os pontos fulcrais apontados pelo diretor de cirurgia ortopédica do CHULC. Quando comparado com os métodos atuais do CHULC, todos os modelos alcançaram uma diminuição significativa no erro de predição do tempo de sala. Considerando uma margem de 10%, todos os modelos apresentaram uma redução na percentagem de cirurgias subestimadas, cerca de 41%, e um aumento nas percentagens das cirurgias estimadas corretamente, rondando os 19%. No entanto, os modelos registaram um aumento de 22% nas cirurgias sobrestimadas. Futuros estudos no sentido de traduzir o impacto de cirurgias subestimadas e sobrestimadas serão necessários para complementar estes resultados. A variável que apresentou um maior impacto em todos os modelos de RF foi a média do cirurgião com base no tipo de procedimento cirúrgico realizado. Dado o elevado grau de linearidade desta variável com o output do modelo, o tempo de sala, expresso por um coeficiente de Pearson de 0,865, levou a que o modelo de regressão linear conseguisse traduzir de forma precisa a relação entre estas variáveis, e, consequentemente, atingisse resultados semelhantes ao modelo de RF nas especialidades de Urologia e Cirurgia Geral. Conclui-se que a implementação de abordagens de aprendizagem automática melhora a precisão na predição do tempo de sala e podem servir como uma ferramenta de apoio à decisão clínica para o auxílio do agendamento cirúrgico. Para operacionalizar estes resultados a nível hospitalar é necessário trabalho futuro

    C-Trend parameters and possibilities of federated learning

    Get PDF
    Abstract. In this observational study, federated learning, a cutting-edge approach to machine learning, was applied to one of the parameters provided by C-Trend Technology developed by Cerenion Oy. The aim was to compare the performance of federated learning to that of conventional machine learning. Additionally, the potential of federated learning for resolving the privacy concerns that prevent machine learning from realizing its full potential in the medical field was explored. Federated learning was applied to burst-suppression ratio’s machine learning and it was compared to the conventional machine learning of burst-suppression ratio calculated on the same dataset. A suitable aggregation method was developed and used in the updating of the global model. The performance metrics were compared and a descriptive analysis including box plots and histograms was conducted. As anticipated, towards the end of the training, federated learning’s performance was able to approach that of conventional machine learning. The strategy can be regarded to be valid because the performance metric values remained below the set test criterion levels. With this strategy, we will potentially be able to make use of data that would normally be kept confidential and, as we gain access to more data, eventually develop machine learning models that perform better. Federated learning has some great advantages and utilizing it in the context of qEEGs’ machine learning could potentially lead to models, which reach better performance by receiving data from multiple institutions without the difficulties of privacy restrictions. Some possible future directions include an implementation on heterogeneous data and on larger data volume.C-Trend-teknologian parametrit ja federoidun oppimisen mahdollisuudet. Tiivistelmä. Tässä havainnointitutkimuksessa federoitua oppimista, koneoppimisen huippuluokan lähestymistapaa, sovellettiin yhteen Cerenion Oy:n kehittämään C-Trend-teknologian tarjoamaan parametriin. Tavoitteena oli verrata federoidun oppimisen suorituskykyä perinteisen koneoppimisen suorituskykyyn. Lisäksi tutkittiin federoidun oppimisen mahdollisuuksia ratkaista yksityisyyden suojaan liittyviä rajoitteita, jotka estävät koneoppimista hyödyntämästä täyttä potentiaaliaan lääketieteen alalla. Federoitua oppimista sovellettiin purskevaimentumasuhteen koneoppimiseen ja sitä verrattiin purskevaimentumasuhteen laskemiseen, johon käytettiin perinteistä koneoppimista. Kummankin laskentaan käytettiin samaa dataa. Sopiva aggregointimenetelmä kehitettiin, jota käytettiin globaalin mallin päivittämisessä. Suorituskykymittareiden tuloksia verrattiin keskenään ja tehtiin kuvaileva analyysi, johon sisältyi laatikkokuvioita ja histogrammeja. Odotetusti opetuksen loppupuolella federoidun oppimisen suorituskyky pystyi lähestymään perinteisen koneoppimisen suorituskykyä. Menetelmää voidaan pitää pätevänä, koska suorituskykymittarin arvot pysyivät alle asetettujen testikriteerien tasojen. Tämän menetelmän avulla voimme ehkä hyödyntää dataa, joka normaalisti pidettäisiin salassa, ja kun saamme lisää dataa käyttöömme, voimme lopulta kehittää koneoppimismalleja, jotka saavuttavat paremman suorituskyvyn. Federoidulla oppimisella on joitakin suuria etuja, ja sen hyödyntäminen qEEG:n koneoppimisen yhteydessä voisi mahdollisesti johtaa malleihin, jotka saavuttavat paremman suorituskyvyn saamalla tietoja useista eri lähteistä ilman yksityisyyden suojaan liittyviä rajoituksia. Joitakin mahdollisia tulevia suuntauksia ovat muun muassa heterogeenisen datan ja suurempien tietomäärien käyttö

    ИССЛЕДОВАНИЕ ВЛИЯНИЯ ДЛИНЫ СИГНАЛА ЭЭГ НА ТОЧНОСТЬ КЛАССИФИКАЦИИ УРОВНЕЙ АНЕСТЕЗИИ

    Get PDF
    This paper considers one of the challenging tasks during surgical procedure, i.e. depth of anasthesia estimate. The purpose of this paper is to investigate the effect of the analyzed EEG signal fragment duration on the accuracy of anesthesia level estimate using the linear discriminant analysis algorithm and determining the EEG signal length, which yields acceptable accuracy of anesthesia level separation using these parameters.A new method for classifying EEG anesthesia levels is proposed. The possibility of classifying levels of anesthesia is demonstrated by means of sharing the EEG parameters under consideration (SE, BSR, SEF95, RBR). The method can be used in anesthesia monitors that are used to monitor the depth of anesthesia in order to select the appropriate dose of anesthetic drugs during operations, thus avoiding both cases of intraoperative arousal and excessively deep anesthesia.Одной из важнейших задач при проведении хирургических операций является оценка глубины анестезии пациента. Глубина общей анестезии традиционно оценивалась с помощью гемодинамических признаков, которые плохо коррелируют с уровнем сознания пациента. Сигналы электроэнцефалограммы (ЭЭГ) содержат ценную информацию о процессах в мозге пациента, поэтому анализ ЭЭГ рассматривается как один из наиболее полезных методов в исследовании и оценке глубины анестезии в клинических применениях. Нелинейный анализ для оценки глубины анестезии позволяет получить информацию, которая не может быть получена с использованием методов спектрального анализа ЭЭГ. Формирование комплекса диагностически значимых показателей ЭЭГ во время анестезии дает возможность адекватно описать эти сложные процессы и изменения с помощью совместного использования четырех параметров ЭЭГ: SE, BSR, SEF95, RBR. Целью работы является исследование влияния длительности анализируемого фрагмента сигнала ЭЭГ на точность оценки уровней анестезии с помощью алгоритма линейного дискриминантного анализа и определение длины сигнала ЭЭГ, при которой получается приемлемая точность разделения уровней наркоза с помощью этих параметров. Предложен новый метод классификации уровней анестезии по ЭЭГ. Показана возможность классификации уровней анестезии с помощью совместного использования рассматриваемых параметров ЭЭГ (SE, BSR, SEF95, RBR). Метод может быть использован в мониторах анестезии, служащих для контроля глубины наркоза в целях выбора подходящей дозы анестезирующих препаратов во время операций, что позволит избежать как случаев интраоперационного пробуждения, так и излишне глубокого наркоза

    Data analysis and modeling for engineering and medical applications

    Get PDF
    Master'sMASTER OF ENGINEERIN

    Study and prediction of time of recovery of consciousness after general anaesthesia

    Full text link
    Treballs Finals de Grau d'Enginyeria Biomèdica. Facultat de Medicina i Ciències de la Salut. Universitat de Barcelona. Curs: 2022-2023. Tutor/Director: Gambús Cerrillo, Pedro LuisSeveral studies address the process of loss of consciousness during the induction of general anaesthesia, but few of them discuss or study the process of recovery of consciousness once the of general anaesthesia has been administered successfully. The main objective of this project is to study and develop a predictive model of the duration of this process of consciousness recovery based on Machine Learning (ML) and the analysis of electroencephalographic (EEG) signals. A dataset comprising 143 patients from the 4th operating room of the Hospital Clínic of Barcelona was analysed. The project involved data pre-processing, including the segmentation of EEG signals during the recovery process, feature extraction, and correlation analysis. Five ML regression algorithms, namely Linear, Lasso, and Ridge Regression, Support Vector Regression (SVR), and Random Forest (RF), were evaluated using a Cross-Validation pipeline. Model performance, feature selection, and hyperparameter optimization were assessed using the R-squared score criterion. The best performing algorithm was the regularized linear regression model, Lasso, achieving an R-squared score of 0.74 ± 0.032 (mean and standard deviation). Through the correlation analysis and the feature selection performed by the algorithm, high predictive capabilities of consciousness recovery time were obtained for alpha and beta relative averaged band power in the first minute before stopping general anaesthesia administration. The findings demonstrate that EEG signals contain valuable information regarding the process of consciousness recovery, enabling the construction of ML predictive models. However, further studies are required to enhance our understanding of the consciousness recovery process and to validate the predictive model in a clinical setting. Future investigations should focus on increasing data variability, addressing biases in validation techniques, exploring additional EEG channels to capture global brain activity, and considering regulatory considerations for Artificial Intelligence algorithms

    ОЦЕНКА ГЛУБИНЫ АНЕСТЕЗИИ ПО ЭЛЕКТРОЭНЦЕФАЛОГРАММЕ С ИСПОЛЬЗОВАНИЕМ НЕЙРОННЫХ СЕТЕЙ

    Get PDF
    Introduction. Monitoring of the depth of anesthesia during surgery is a complex task. Since electroencephalogram (EEG) signals contain valuable information about processes in the brain, EEG analysis is considered to be one of the most useful methods for study and assessment of the depth of anesthesia in clinical applications. Anesthetics affect the frequency composition of the EEG. EEG of awake persons, as a rule, contains mixed alpha and beta rhythms. Changes in the EEG, caused by the transition from the waking state to the state of deep anesthesia, manifest as a shift of the spectral components of the signal to the lower part of the frequency range. Anesthetics cause a whole range of neurophysiological changes, which cannot be correctly assessed with just one indicator. Objective. In order to describe complex processes during the transition from the waking state to the state of deep anesthesia adequately, it is required to propose a method for assessing the depth of anesthesia, using a comprehensive set of parameters reflecting changes in the EEG signal. The article presents the results of study the possibility of building a regression model based on artificial neural networks (ANN) to determine levels of anesthesia using a set of parameters calculated by EEG. Materials and methods. The authors of the article propose the method for assessing the level of anesthesia, based on the use of neural networks, which input parameters are time and frequency EEG parameters, namely: spectral entropy (SE); burst-suppression ratio (BSR); spectral edge frequency (SEF95) and log power ratio of the spectrum (RBR) for three pairs of frequency ranges. Results. The optimal parameters of ANN were determined, at which the highest level of regression is achieved between the calculated and the verified values of the anesthesia depth indices. Conclusion. In order to create a practical version of the algorithm, it is necessary to investigate further the noise stability of the proposed method and develop a set of algorithmic solutions, which ensure a reliable operation of the algorithm in the presence of noise.Введение. Мониторинг глубины анестезии при проведении хирургических операций является сложной задачей. Поскольку сигналы электроэнцефалограммы (ЭЭГ) содержат ценную информацию о процессах в головном мозге, анализ ЭЭГ рассматривается как один из наиболее полезных методов в исследовании и оценке глубины анестезии в клинических применениях. Анестезирующие средства влияют на частотный состав ЭЭГ. ЭЭГ бодрствующих субъектов, как правило, содержит смешанные альфа- и бета-ритмы. Изменения в ЭЭГ, вызванные переходом от состояния бодрствования к состоянию глубокой анестезии, проявляются в виде смещения спектральных составляющих сигнала к нижней части диапазона частот. Однако анестезирующие средства вызывают целый комплекс нейрофизиологических изменений, который невозможно правильно оценить только одним показателем. Цель работы. Для адекватного описания сложных процессов в период перехода от бодрствования к глубокой анестезии необходим метод оценки глубины анестезии, использующий комплексный набор параметров, отражающих изменения в сигнале ЭЭГ. В настоящей статье представлены результаты исследования возможности построения регрессионной модели на основе искусственных нейронных сетей (ИНС) для определения уровней анестезии с использованием набора рассчитываемых по ЭЭГ параметров. Материалы и методы. Предложен метод оценки уровня анестезии, основанный на применении ИНС, входными параметрами которых являются временны́е и частотные показатели ЭЭГ, а именно: спектральная энтропия; отношение "вспышки/подавление"; спектральная краевая частота и логарифм отношения мощностей спектра для трех пар частотных диапазонов. Результаты. Были определены оптимальные параметры ИНС, при которых достигается наивысший уровень регрессии между рассчитанными и верифицированными значениями показателя глубины анестезии. Заключение. Для создания практического варианта алгоритма необходимо дополнительно исследовать помехоустойчивость рассматриваемого метода и разработать комплекс алгоритмических решений, обеспечивающих надежную работу алгоритма при наличии шумов
    corecore