7 research outputs found

    Đ ĐŸĐ·Ń€ĐŸĐ±ĐșĐ° ĐżŃ€ĐŸĐłŃ€Đ°ĐŒĐœĐŸĐłĐŸ Đ·Đ°Đ±Đ”Đ·ĐżĐ”Ń‡Đ”ĐœĐœŃ ĐŽĐ»Ń ĐŸŃ†Ń–ĐœĐșĐž та Đ·ĐŒŃ–ĐœĐž ĐżĐ°Ń€Đ°ĐŒĐ”Ń‚Ń€Ń–ĐČ ŃĐșĐŸŃŃ‚Ń– Ń€Đ°ŃŃ‚Ń€ĐŸĐČох Đ·ĐŸĐ±Ń€Đ°Đ¶Đ”ĐœŃŒ

    Get PDF
    The developed software based on open systems and software is available for operating systems Linux and Windows. It is planned to develop for Android. The application uses assesses the quality bitmaps quantitative indicators. Quality of image is formed on the basis of the calculation and adjustment of brightness, contrast, contrast, tone, contrast, saturation, brightness and tone. Experimental results are shown as histograms. A convolution method to change the color characteristics of the pixels is presented

    Are Natural Domain Foundation Models Useful for Medical Image Classification?

    Full text link
    The deep learning field is converging towards the use of general foundation models that can be easily adapted for diverse tasks. While this paradigm shift has become common practice within the field of natural language processing, progress has been slower in computer vision. In this paper we attempt to address this issue by investigating the transferability of various state-of-the-art foundation models to medical image classification tasks. Specifically, we evaluate the performance of five foundation models, namely SAM, SEEM, DINOv2, BLIP, and OpenCLIP across four well-established medical imaging datasets. We explore different training settings to fully harness the potential of these models. Our study shows mixed results. DINOv2 consistently outperforms the standard practice of ImageNet pretraining. However, other foundation models failed to consistently beat this established baseline indicating limitations in their transferability to medical image classification tasks.Comment: IEEE/CVF Winter Conference on Applications of Computer Vision (WACV 2024

    Deep Reinforcement Learning for Adaptive Human Robotic Collaboration

    No full text
    Robots are expected to become an increasingly common part of most humans everyday lives. As the number of robots increase, so will also the number of human-robot interactions. For these interactions to be valuable and intuitive, new advanced robotic control policies will be necessary. Current policies often lack flexibility, rely heavily on human expertise and are often programmed for very specific use cases. A promising alternative is the use of Deep Reinforcement Learning, a family of algorithms that learn by trial and error. Following the recent success of Reinforcement Learning (RL) to areas previously considered too complex, RL has emerged as a possible method to learn Robotic Control Policies. This thesis explores the possibility of using Deep Reinforcement Learning (DRL) as a method to learn Robotic Control Policies for Human Robotic Collaboration (HRC). Specifically, it will evaluate if DRL algorithms can be used to train a robot to collaboratively balance a ball with a human along a predetermined path on a table. To evaluate if it is possible several experiments are performed in a simulator, where two robots jointly balance a ball, one emulating a human and one relying on the policy from the DRL algorithm. The experiments performed suggest that DRL can be used to enable HRC which perform equivalently or better than an emulated human performing the task alone. Further, the experiments indicate that less skilled human collaborators performance can be improved by cooperating with a DRL trained robot.NÀrvaron av robotar förvÀntas bli en allt vanligare del av de flesta mÀnniskors vardagsliv. NÀr antalet robotar ökar, sÄ ökar Àven antalet mÀnniska-robot-interaktioner. För att dessa interaktioner ska vara anvÀndbara och intuitiva, kommer nya avancerade robotkontrollstrategier att vara nödvÀndiga. Nuvarande strategier saknar ofta flexibilitet, Àr mycket beroende av mÀnsklig kunskap och Àr ofta programmerade för mycket specifika anvÀndningsfall. Ett lovande alternativ Àr anvÀndningen av Deep Reinforcement Learning, en familj av algoritmer som lÀr sig genom att testa sig fram, likt en mÀnniska. Efter den senaste tidens framgÄngar inom Reinforcement Learning (RL) vilket applicerats pÄ omrÄden som tidigare ansetts vara för komplexa har RL nu blivit ett möjlig alternativ till mer etablerade metoder för att lÀra sig kontrollstrategier för robotar. Denna uppsats undersöker möjligheten att anvÀnda Deep Reinforcement Learning (DRL) som metod för att lÀra sig sÄdana kontrollstrategier för mÀnniska-robot-samarbeten. Specifikt kommer den att utvÀrdera om DRL-algoritmer kan anvÀndas för att trÀna en robot och en mÀnniska att tillsammans balansera en boll lÀngs en förutbestÀmd bana pÄ ett bord. För att utvÀrdera om det Àr möjligt utförs flera experiment i en simulator, dÀr tvÄ robotar gemensamt balanserar en boll, en simulerar en mÀnniska och den andra en robot som kontrolleras med hjÀlp av DRLalgoritmen. De utförda experimenten tyder pÄ att DRL kan anvÀndas för att möjliggöra mÀnniska-robot-samarbeten som utförs lika bra eller bÀttre Àn en simulerad mÀnniska som utför uppgiften ensam. Vidare indikerar experimenten att prestationer med mindre kompetenta mÀnskliga deltagare kan förbÀttras genom att samarbeta med en DRLalgoritm-kontrollerad robot

    Deep Reinforcement Learning for Adaptive Human Robotic Collaboration

    No full text
    Robots are expected to become an increasingly common part of most humans everyday lives. As the number of robots increase, so will also the number of human-robot interactions. For these interactions to be valuable and intuitive, new advanced robotic control policies will be necessary. Current policies often lack flexibility, rely heavily on human expertise and are often programmed for very specific use cases. A promising alternative is the use of Deep Reinforcement Learning, a family of algorithms that learn by trial and error. Following the recent success of Reinforcement Learning (RL) to areas previously considered too complex, RL has emerged as a possible method to learn Robotic Control Policies. This thesis explores the possibility of using Deep Reinforcement Learning (DRL) as a method to learn Robotic Control Policies for Human Robotic Collaboration (HRC). Specifically, it will evaluate if DRL algorithms can be used to train a robot to collaboratively balance a ball with a human along a predetermined path on a table. To evaluate if it is possible several experiments are performed in a simulator, where two robots jointly balance a ball, one emulating a human and one relying on the policy from the DRL algorithm. The experiments performed suggest that DRL can be used to enable HRC which perform equivalently or better than an emulated human performing the task alone. Further, the experiments indicate that less skilled human collaborators performance can be improved by cooperating with a DRL trained robot.NÀrvaron av robotar förvÀntas bli en allt vanligare del av de flesta mÀnniskors vardagsliv. NÀr antalet robotar ökar, sÄ ökar Àven antalet mÀnniska-robot-interaktioner. För att dessa interaktioner ska vara anvÀndbara och intuitiva, kommer nya avancerade robotkontrollstrategier att vara nödvÀndiga. Nuvarande strategier saknar ofta flexibilitet, Àr mycket beroende av mÀnsklig kunskap och Àr ofta programmerade för mycket specifika anvÀndningsfall. Ett lovande alternativ Àr anvÀndningen av Deep Reinforcement Learning, en familj av algoritmer som lÀr sig genom att testa sig fram, likt en mÀnniska. Efter den senaste tidens framgÄngar inom Reinforcement Learning (RL) vilket applicerats pÄ omrÄden som tidigare ansetts vara för komplexa har RL nu blivit ett möjlig alternativ till mer etablerade metoder för att lÀra sig kontrollstrategier för robotar. Denna uppsats undersöker möjligheten att anvÀnda Deep Reinforcement Learning (DRL) som metod för att lÀra sig sÄdana kontrollstrategier för mÀnniska-robot-samarbeten. Specifikt kommer den att utvÀrdera om DRL-algoritmer kan anvÀndas för att trÀna en robot och en mÀnniska att tillsammans balansera en boll lÀngs en förutbestÀmd bana pÄ ett bord. För att utvÀrdera om det Àr möjligt utförs flera experiment i en simulator, dÀr tvÄ robotar gemensamt balanserar en boll, en simulerar en mÀnniska och den andra en robot som kontrolleras med hjÀlp av DRLalgoritmen. De utförda experimenten tyder pÄ att DRL kan anvÀndas för att möjliggöra mÀnniska-robot-samarbeten som utförs lika bra eller bÀttre Àn en simulerad mÀnniska som utför uppgiften ensam. Vidare indikerar experimenten att prestationer med mindre kompetenta mÀnskliga deltagare kan förbÀttras genom att samarbeta med en DRLalgoritm-kontrollerad robot

    Deep Reinforcement Learning for Adaptive Human Robotic Collaboration

    No full text
    Robots are expected to become an increasingly common part of most humans everyday lives. As the number of robots increase, so will also the number of human-robot interactions. For these interactions to be valuable and intuitive, new advanced robotic control policies will be necessary. Current policies often lack flexibility, rely heavily on human expertise and are often programmed for very specific use cases. A promising alternative is the use of Deep Reinforcement Learning, a family of algorithms that learn by trial and error. Following the recent success of Reinforcement Learning (RL) to areas previously considered too complex, RL has emerged as a possible method to learn Robotic Control Policies. This thesis explores the possibility of using Deep Reinforcement Learning (DRL) as a method to learn Robotic Control Policies for Human Robotic Collaboration (HRC). Specifically, it will evaluate if DRL algorithms can be used to train a robot to collaboratively balance a ball with a human along a predetermined path on a table. To evaluate if it is possible several experiments are performed in a simulator, where two robots jointly balance a ball, one emulating a human and one relying on the policy from the DRL algorithm. The experiments performed suggest that DRL can be used to enable HRC which perform equivalently or better than an emulated human performing the task alone. Further, the experiments indicate that less skilled human collaborators performance can be improved by cooperating with a DRL trained robot.NÀrvaron av robotar förvÀntas bli en allt vanligare del av de flesta mÀnniskors vardagsliv. NÀr antalet robotar ökar, sÄ ökar Àven antalet mÀnniska-robot-interaktioner. För att dessa interaktioner ska vara anvÀndbara och intuitiva, kommer nya avancerade robotkontrollstrategier att vara nödvÀndiga. Nuvarande strategier saknar ofta flexibilitet, Àr mycket beroende av mÀnsklig kunskap och Àr ofta programmerade för mycket specifika anvÀndningsfall. Ett lovande alternativ Àr anvÀndningen av Deep Reinforcement Learning, en familj av algoritmer som lÀr sig genom att testa sig fram, likt en mÀnniska. Efter den senaste tidens framgÄngar inom Reinforcement Learning (RL) vilket applicerats pÄ omrÄden som tidigare ansetts vara för komplexa har RL nu blivit ett möjlig alternativ till mer etablerade metoder för att lÀra sig kontrollstrategier för robotar. Denna uppsats undersöker möjligheten att anvÀnda Deep Reinforcement Learning (DRL) som metod för att lÀra sig sÄdana kontrollstrategier för mÀnniska-robot-samarbeten. Specifikt kommer den att utvÀrdera om DRL-algoritmer kan anvÀndas för att trÀna en robot och en mÀnniska att tillsammans balansera en boll lÀngs en förutbestÀmd bana pÄ ett bord. För att utvÀrdera om det Àr möjligt utförs flera experiment i en simulator, dÀr tvÄ robotar gemensamt balanserar en boll, en simulerar en mÀnniska och den andra en robot som kontrolleras med hjÀlp av DRLalgoritmen. De utförda experimenten tyder pÄ att DRL kan anvÀndas för att möjliggöra mÀnniska-robot-samarbeten som utförs lika bra eller bÀttre Àn en simulerad mÀnniska som utför uppgiften ensam. Vidare indikerar experimenten att prestationer med mindre kompetenta mÀnskliga deltagare kan förbÀttras genom att samarbeta med en DRLalgoritm-kontrollerad robot

    Hitta Twittertrender : Effekten av oövervakad förtrÀning

    No full text
    Unsupervised pre-training has recently emerged as a method for initializing super- vised machine learning methods. Foremost it has been applied to artificial neural networks (ANN). Previous work has found unsupervised pre-training to increase accuracy and be an effective method of initialization for ANNs[2]. This report studies the effect of unsupervised pre-training when detecting Twit- ter trends. A Twitter trend is defined as a topic gaining popularity. Previous work has studied several machine learning methods to analyse Twitter trends. However, this thesis studies the efficiency of using a multi-layer percep- tron classifier (MLPC) with and without Bernoulli restricted Boltzmann machine (BRBM) as an unsupervised pre-training method. Two relevant factors studied are the number of hidden layers in the MLPC and the size of the available dataset for training the methods. This thesis has implemented a MLPC that can detect trends at an accuracy of 85%. However, the experiments conducted to test the effect of unsupervised pre-training were inconclusive. No benefit could be concluded when using BRBM pre-training for the Twitter time series data. Oövervakade förtrÀning (OF) Àr ett omrÄde inom maskininlÀrning som anvÀnds för att initialisera övervakade metoder. Tidigare studier har visat pÄ att OF har varit en effektiv metod för att initialisera artificiella neurala nÀtverk (ANN). Denna initialiseringsmetod har haft positiv inverkan pÄ den övervakade metodens precision[2]. Denna rapport studerar OFs pÄverkan nÀr en övervakad metod anvÀnds för att hitta trender i ett Twitterdataset. En Twittertrend definieras av ett Àmnes ökning i popularitet. Tidigare har flera studier analyserat olika maksininlÀrnings metoders applicerbarhet pÄ Twitter tidsserie data. Dock har ingen studie fokuserat pÄ anvÀndningen av OF och ANNs pÄ denna typ av data, nÄgot denna rapport Àmnar göra. Effekten av att kombinera en Bernoulli restricted Boltzmann machine (BRBM) med en multi-layer perceptron classifier (MLPC) jÀmförs med en modell vilken endast anvÀnder MLCP. TvÄ relevanta faktorer som ocksÄ studeras Àr hur storleken pÄ datasetet som trÀnar metoderna pÄverkar deras relativa precision, samt hur antalet gömda lager i MLPC pÄverkar respektive metod. Denna studie har implementerat en MLPC som kan hitta trender med 85% sÀkerhet. Dock har experimenten för OF inte lyckats bekrÀfta nÄgon fördel med OF vid tillÀmpning pÄ Twitter tidsserie data. The presentation has not yet been scheduled but will take place in June and in the locales of KTH.</p
    corecore