3 research outputs found

    kinect : αποθήκευση κινήσεων

    Get PDF
    Αυτή η πτυχιακή παρουσιάζει την υλοποίηση μιας εφαρμογής, η οποία καταγράφει και αποθηκεύει κινήσεις του χρήστη. Για την καταγραφή των κινήσεων χρησιμοποιείται μία κάμερα Kinect. Κάθε δευτερόλεπτο αποθηκεύονται κάποια frames της κίνησης που εκτελεί ο χρήστης σε μία βάση. Ουσιαστικά αποθηκεύονται τα joints του κάθε frame, τα οποία έχουν 3-Δ συντεταγμένες στο χώρο (Χ, Υ, Ζ). Συνολικά το Kinect στέλνει δεδομένα για 20 joints. Ο χρήστης θα μπορεί να πραγματοποιεί μία απλή κίνηση (βήμα, τρέξιμο, ...) ή κάποια κίνηση από ένα συγκεκριμένο είδος χορού ή ακόμα και να εισάγει κάποια δική του κίνηση ο ίδιος (ακόμα και νέο χορό). Παρουσιάζονται τα χαρακτηριστικά του Kinect, καθώς επίσης και σχετική εργασία επί του ίδιου θέματος. Αναφέρονται οι τεχνολογίες και τα εργαλεία που χρησιμοποιήθηκαν για την ανάπτυξη της εφαρμογής και της βάσης δεδομένων που αυτή χρησιμοποιεί. Αναλύονται τα μειονεκτήματα και τα πλεονεκτήματα, όπως και οι προβληματισμοί που προέκυψαν κατά την δημιουργία της. Τέλος γίνεται αναφορά στα συμπεράσματα, μελλοντική εργασία – ανοιχτά θέματα.Τhis thesis presents the implementation of an application, which records and stores human movements. A Kinect sensor is used in order to record these movements. Several frames of the human movement are stored in a database. Basically the joints of every frame, which have 3d coordinates, are stored. Kinect sensor sends 20 joints. Every user can make a simple movement (step, run) or a movement which belongs to a specific type of dance and even add his own (even new dance). Here are presented the features of Kinect, as well as related work on the same issue. Technologies and tools that were used to develop the application are indicated and along with the database used. The advantages and disadvantages are analyzed, as well as the concerns raised during the creation. Finally conclusions, future work and open issues are presented

    Guidance of robot arms using depth data from RGB-D camera

    Get PDF
    Image Based Visual Servoing (IBVS) is a robotic control scheme based on vision. This scheme uses only the visual information obtained from a camera to guide a robot from any robot pose to a desired one. However, IBVS requires the estimation of different parameters that cannot be obtained directly from the image. These parameters range from the intrinsic camera parameters (which can be obtained from a previous camera calibration), to the measured distance on the optical axis between the camera and visual features, it is the depth. This paper presents a comparative study of the performance of D-IBVS estimating the depth from three different ways using a low cost RGB-D sensor like Kinect. The visual servoing system has been developed over ROS (Robot Operating System), which is a meta-operating system for robots. The experiments prove that the computation of the depth value for each visual feature improves the system performance.The research leading to these results has received funding from the Spanish Ministry of Education and Science and European FEDER funds, the Valencia Regional Government and the Research and Innovation Vice-president Office of the University of Alicante, through the research projects DPI2012-32390, GV2012/102 and PROMETEO/2013/085, GRE10-16, respectively
    corecore