7 research outputs found

    sistem kendali multiple mikrokontroler menggunakan perintah suara berbasis internet of things

    Get PDF
    Dalam kehidupan sehari-hari tentunya kita tidak lepas menggunakan perangkat elektronik seperti menyalakan lampu untuk penerangan rumah, menyalakan kipas angin, TV dan lainnya. Bagi orang yang sedang sakit, atau berada di kursi roda, ataupun orang disabitas dan juga orang yang lanjut usia akan kesulitan untuk mencapai saklar lampu ketika ingin menyalakan atau menghidupkan perangkat elektronik. Pada penelitian ini dikembangan voice recognition untuk kendali perangkat elektronik melalui Google Assistant.  Dalam sistem ini, ESP8266 digunakan sebagai mikrokontroller yang mengontrol relay dan membaca nilai sensor DHT11 yang disebut sebagai node. Terdapat 3 node (Node 1, Node 2, Node 3) yang digunakan, dimana Node 1 bertugas sebagai Cluster Head (CH) yang terhubung dengan internet. CH melakukan stream data sekaligus mendistribusikan data dari Node 2 dan Node 3 ke database maupun sebaliknya. Pengujian dibagi menjadi dua tahap yaitu pengujian pada Google Assistant dan pengujian komunikasi kontrol relay. Hasil pengujian menunjukkan sistem dapat bekerja dengan baik dengan tingkat keberhasilan pengujian Google Assistant sebesar 80% dan pengujian kontrol relay sebesar 100%

    End-to-End Learning of Speech 2D Feature-Trajectory for Prosthetic Hands

    Full text link
    Speech is one of the most common forms of communication in humans. Speech commands are essential parts of multimodal controlling of prosthetic hands. In the past decades, researchers used automatic speech recognition systems for controlling prosthetic hands by using speech commands. Automatic speech recognition systems learn how to map human speech to text. Then, they used natural language processing or a look-up table to map the estimated text to a trajectory. However, the performance of conventional speech-controlled prosthetic hands is still unsatisfactory. Recent advancements in general-purpose graphics processing units (GPGPUs) enable intelligent devices to run deep neural networks in real-time. Thus, architectures of intelligent systems have rapidly transformed from the paradigm of composite subsystems optimization to the paradigm of end-to-end optimization. In this paper, we propose an end-to-end convolutional neural network (CNN) that maps speech 2D features directly to trajectories for prosthetic hands. The proposed convolutional neural network is lightweight, and thus it runs in real-time in an embedded GPGPU. The proposed method can use any type of speech 2D feature that has local correlations in each dimension such as spectrogram, MFCC, or PNCC. We omit the speech to text step in controlling the prosthetic hand in this paper. The network is written in Python with Keras library that has a TensorFlow backend. We optimized the CNN for NVIDIA Jetson TX2 developer kit. Our experiment on this CNN demonstrates a root-mean-square error of 0.119 and 20ms running time to produce trajectory outputs corresponding to the voice input data. To achieve a lower error in real-time, we can optimize a similar CNN for a more powerful embedded GPGPU such as NVIDIA AGX Xavier

    DĂ©veloppement d’algorithmes et d’outils logiciels pour l’assistance technique et le suivi en rĂ©adaptation

    Get PDF
    Ce mĂ©moire prĂ©sente deux projets de dĂ©veloppement portant sur des algorithmes et des outils logiciels offrant des solutions pratiques Ă  des problĂ©matiques courantes rencontrĂ©es en rĂ©adaptation. Le premier dĂ©veloppement prĂ©sentĂ© est un algorithme de correspondance de sĂ©quence qui s’intĂšgre Ă  des interfaces de contrĂŽle couramment utilisĂ©es en pratique. L’implĂ©mentation de cet algorithme offre une solution flexible pouvant s’adapter Ă  n’importe quel utilisateur de technologies d’assistances. Le contrĂŽle de tels appareils reprĂ©sente un dĂ©fi de taille puisqu’ils ont, la plupart du temps, une dimensionnalitĂ© Ă©levĂ©e (c-Ă -d. plusieurs degrĂ©s de libertĂ©, modes ou commandes) et sont maniĂ©s Ă  l’aide d’interfaces basĂ©es sur de capteurs de faible dimensionnalitĂ© offrant donc trĂšs peu de commandes physiques distinctes pour l’utilisateur. L’algorithme proposĂ© se base donc sur de la reconnaissance de courts signaux temporels ayant la possibilitĂ© d’ĂȘtre agencĂ©s en sĂ©quences. L’éventail de combinaisons possibles augmente ainsi la dimensionnalitĂ© de l’interface. Deux applications de l’algorithme sont dĂ©veloppĂ©es et testĂ©es. La premiĂšre avec une interface de contrĂŽle par le souffle pour un bras robotisĂ© et la seconde pour une interface de gestes de la main pour le contrĂŽle du clavier-souris d’un ordinateur. Le second dĂ©veloppement prĂ©sentĂ© dans ce mĂ©moire porte plutĂŽt sur la collecte et l’analyse de donnĂ©es en rĂ©adaptation. Que ce soit en milieux cliniques, au laboratoires ou au domicile, nombreuses sont les situations oĂč l’on souhaite rĂ©colter des donnĂ©es. La solution pour cette problĂ©matique se prĂ©sente sous la forme d’un Ă©cosystĂšme d’applications connectĂ©es incluant serveur et applications web, mobiles et embarquĂ©e. Ces outils logiciels sont dĂ©veloppĂ©s sur mesure et offrent un procĂ©dĂ© unique, peu coĂ»teux, lĂ©ger et rapide pour la collecte, la visualisation et la rĂ©cupĂ©ration de donnĂ©es. Ce manuscrit dĂ©taille une premiĂšre version en dĂ©crivant l’architecture employĂ©e, les technologies utilisĂ©es et les raisons qui ont menĂ© Ă  ces choix tout en guidant les futures itĂ©rations.This Master’s thesis presents two development projects about algorithms and software tools providing practical solutions to commonly faced situations in rehabilitation context. The first project is the development of a sequence matching algorithm that can be integrated to the most commonly used control interfaces. The implementation of this algorithm provides a flexible solution that can be adapted to any assistive technology user. The control of such devices represents a challenge since their dimensionality is high (i.e., many degrees of freedom, modes, commands) and they are controlled with interfaces based on low-dimensionality sensors. Thus, the number of actual physical commands that the user can perform is low. The proposed algorithm is based on short time signals that can be organized into sequences. The multiple possible combinations then contribute to increasing the dimensionality of the interface. Two applications of the algorithm have been developed and tested. The first is a sip-and-puff control interface for a robotic assistive arm and the second is a hand gesture interface for the control of a computer’s mouse and keyboard. The second project presented in this document addresses the issue of collecting and analyzing data. In a rehabilitation’s clinical or laboratory environment, or at home, there are many situations that require gathering data. The proposed solution to this issue is a connected applications ecosystem that includes a web server and mobile, web and embedded applications. This custom-made software offers a unique, inexpensive, lightweight and fast workflow to visualize and retrieve data. The following document describes a first version by elaborating on the architecture, the technologies used, the reasons for those choices, and guide the next iterations

    Étude et conception de systĂšmes de validation de tĂąches d'assemblage : participation Ă  la conception d'un robot collaboratif destinĂ© Ă  une chaĂźne de montage automobile

    Get PDF
    La robotique collaborative connaĂźt ces derniĂšres annĂ©es une forte croissance, grĂące Ă  la pertinence de la collaboration entre les humains et les robots dans un mĂȘme espace de travail. Des applications industrielles se dĂ©veloppent, aussi bien dans les grandes multinationales que dans les PME. Dans le contexte d’une chaĂźne d’assemblage automobile, de nombreuses problĂ©matiques se posent pour permettre la collaboration efficace entre robot et opĂ©rateur. Un robot collaboratif conçu dans ce cadre est destinĂ© Ă  effectuer des tĂąches d’assemblages dans des zones Ă  l’accessibilitĂ© complexe. Étant Ă  distance, l’opĂ©rateur n’aura pas nĂ©cessairement de visuel direct sur l’accomplissement de la tĂąche, et pour Ă©viter des pertes de temps, il est souhaitable que le robot soit capable de vĂ©rifier et de valider automatiquement son bon accomplissement. En dĂ©coule la problĂ©matique Ă  l’étude dans ce mĂ©moire, qui est la vĂ©rification automatique du bon accomplissement des tĂąches d’assemblage effectuĂ©es par le robot. Afin d’y rĂ©pondre, une prĂ©-Ă©tude est effectuĂ©e, visant Ă  dĂ©terminer les possibilitĂ©s en termes de capteurs et d’algorithmes de dĂ©tection, et permettant de rĂ©pondre aux besoins et contraintes de General Motors, commanditaire de cette Ă©tude. Chaque chapitre du mĂ©moire prĂ©sente donc un systĂšme de dĂ©tection, composĂ© d’un capteur et d’un ou plusieurs algorithmes de dĂ©cision. Les diffĂ©rences en termes de traitement du signal et d’algorithme sont prĂ©sentĂ©es et comparĂ©es, en s’appuyant sur des expĂ©rimentations. Parmi les types d’assemblages sĂ©lectionnĂ©s par General Motors, ceux utilisĂ©s pour la conception et l’expĂ©rimentation des solutions sont les assemblages clipsĂ©s (« snap fit ») et les assemblages de connecteurs Ă©lectriques. Le premier chapitre prĂ©sente une solution fondĂ©e sur l’utilisation de photodĂ©tecteurs, secondĂ©e par un algorithme vĂ©rifiant en temps rĂ©el les valeurs renvoyĂ©es par le photodĂ©tecteur. Lorsque cette valeur descend sous une valeur seuil prĂ©Ă©tablie, l’algorithme dĂ©duit que l’assemblage a Ă©tĂ© correctement effectuĂ©. Cette mĂ©thode est simple et robuste, ayant obtenu un taux de dĂ©tection correcte de la situation d’assemblage de 100% lors des phases de tests. Cependant cette robustesse est contrebalancĂ©e par le caractĂšre relativement spĂ©cifique de la solution et son peu de flexibilitĂ© pour l’adaptation Ă  d’autres assemblages. Le second chapitre porte sur un systĂšme employant un accĂ©lĂ©romĂštre destinĂ© Ă  enregistrer les diffĂ©rents mouvements survenant lors de l’assemblage. Suit une mĂ©thode de traitement du signal obtenu, permettant de caractĂ©riser et de diffĂ©rencier les signaux Ă©manant d’assemblages rĂ©ussis de ceux provenant d’assemblages ratĂ©s grĂące Ă  des paramĂštres statistiques. Ces derniers sont finalement rĂ©cupĂ©rĂ©s par deux algorithmes de reconnaissance diffĂ©rents, qui sont ensuite comparĂ©s. Le premier algorithme consiste Ă  vĂ©rifier la correspondance des paramĂštres statistiques d’un signal avec des valeurs seuil fixĂ©es Ă  l’avance. L’autre mĂ©thode, issue de l’apprentissage automatique, utilise les SĂ©parateurs Ă  Vaste Marge pour distinguer deux classes : les assemblages rĂ©ussis et les assemblages ratĂ©s. AprĂšs expĂ©rimentation, il ressort que ces deux mĂ©thodes ont des performances assez similaires , de l’ordre de 90%. Ainsi ce sera le contexte et la complexitĂ© du signal Ă  Ă©tudier qui prĂ©sideront au choix d’une mĂ©thode. Enfin, le dernier chapitre se penche sur l’emploi d’un microphone et de techniques de reconnaissance sonore pour permettre la bonne identification d’un assemblage de connecteurs Ă©lectriques. Deux mĂ©thodes de traitement, la transformĂ©e en ondelettes et les Mel Frequency Cepstrum Coefficients (MFCC), sont comparĂ©es. La reconnaissance est assurĂ©e par un algorithme basĂ© sur les modĂšles de mĂ©lange gaussiens. A l’issue d’essais oĂč les deux prĂ©traitements ont Ă©tĂ© mis Ă  l’épreuve, en tenant compte de la rĂ©sistance face au bruit ambiant, il est possible de constater que la transformĂ©e en ondelettes prĂ©sente des performances supĂ©rieures aux MFCC, dans le cadre prĂ©cis de l’étude. La reconnaissance sonore ne nĂ©cessitant qu’un son distinct Ă  identifier pour pouvoir fonctionner, cette solution prĂ©sente un fort potentiel d’adaptation Ă  d’autres types d’assemblages, mais aussi d’autres problĂ©matiques. Ces trois systĂšmes permettent de balayer un certain Ă©ventail de possibilitĂ©s, et les solutions prĂ©sentĂ©es sont amenĂ©es Ă  ĂȘtre croisĂ©es et bonifiĂ©es afin d’aboutir Ă  des systĂšmes robustes et fiables, aux standards de l’industrie
    corecore