30 research outputs found

    Racial Purity, Stable Genes, and Sex Difference: Gender in the Making of Genetic Concepts by Richard Goldschmidt and Fritz Lenz, 1916-1936

    Full text link
    Federated learning poses a statistical challenge when training on highly heterogeneous sequence data. For example, time-series telecom data collected over long intervals regularly shows mixed fluctuations and patterns. These distinct distributions are an inconvenience when a node not only plans to contribute to the creation of the global model but also plans to apply it on its local dataset. In this scenario, adopting a one-fits-all approach might be inadequate, even when using state-of-the-art machine learning techniques for time series forecasting, such as Long Short-Term Memory (LSTM) networks, which have proven to be able to capture many idiosyncrasies and generalise to new patterns. In this work, we show that by clustering the clients using these patterns and selectively aggregating their updates in different global models can improve local performance with minimal overhead, as we demonstrate through experiments using realworld time series datasets and a basic LSTM model.Federated Learning utgör en statistisk utmaning vid trÀning med starkt heterogen sekvensdata. Till exempel sÄ uppvisar tidsseriedata inom telekomdomÀnen blandade variationer och mönster över lÀngre tidsintervall. Dessa distinkta fördelningar utgör en utmaning nÀr en nod inte bara ska bidra till skapandet av en global modell utan Àven Àmnar applicera denna modell pÄ sin lokala datamÀngd. Att i detta scenario införa en global modell som ska passa alla kan visa sig vara otillrÀckligt, Àven om vi anvÀnder oss av de mest framgÄngsrika modellerna inom maskininlÀrning för tidsserieprognoser, Long Short-Term Memory (LSTM) nÀtverk, vilka visat sig kunna fÄnga komplexa mönster och generalisera vÀl till nya mönster. I detta arbete visar vi att genom att klustra klienterna med hjÀlp av dessa mönster och selektivt aggregera deras uppdateringar i olika globala modeller kan vi uppnÄ förbÀttringar av den lokal prestandan med minimala kostnader, vilket vi demonstrerar genom experiment med riktigt tidsseriedata och en grundlÀggande LSTM-modell
    corecore