163 research outputs found

    Μελέτη ανιχνευσιμότητας Μονήρη Πνευμονικού Όζου σε εικόνα Αξονικής (CT) & Ποζιτρονικής (ΡΕΤ) τομογραφίας με χρήση μοντέλων προσομοίωσης

    Get PDF
    Σκοπός της διπλωματικής εργασίας αποτελεί η ανάπτυξη μιας μεθοδολογίας για τη δημιουργία ενός μοντέλου προσομοίωσης του Μονήρη Πνευμονικού Όζου (ΜΠΟ) σε εικόνες αξονικής τομογραφίας (CT) και τομογραφίας εκπομπής ποζιτρονίων (PET). Η ανάπτυξη του μοντέλου προσομοίωσης του ΜΠΟ υλοποιήθηκε με μεθόδους προσομοίωσης Monte Carlo (MC), λαμβάνοντας υπόψη τα εξωτερικά μορφολογικά γνωρίσματα, τα εσωτερικά χαρακτηριστικά και τo βαθμό πρόσληψης του ραδιοφαρμάκου (Standardized Uptake Value – SUV), όπως αυτά περιγράφονται στη διεθνή βιβλιογραφία. Με τη δημιουργία του μοντέλου σχηματίστηκαν ρεαλιστικές εικόνες διαφόρων τύπων προσομοιωμένων ΜΠΟ που ενσωματώθηκαν εντός πρωτογενών δεδομένων από 5 διαφορετικούς ασθενείς σε τομές εικόνας CT και PET. Τα δεδομένα που χρησιμοποιήθηκαν ελήφθησαν με το τομογράφο PET/CT του τμήματος Πυρηνικής Ιατρικής του ΙΙΒΕΑΑ και για την ανακατασκευή των εικόνων χρησιμοποιήθηκε το ανοιχτό λογισμικό STIR (http://stir.sourceforge.net). Για την τελική αξιολόγηση του μοντέλου πραγματοποιήθηκε μελέτη παρατηρητών από τρεις ανεξάρτητους ιατρούς. Συνολικά παράχθηκαν 80 προσομοιωμένοι ΜΠΟ, με το ποσοστό καλοήθειας και κακοήθειας να είναι 80% και 20% αντίστοιχα. Επίσης επιλέχθηκαν 20 αληθινά περιστατικά με διάγνωση ΜΠΟ, όπου τα 14 από αυτά ήταν καλοήθη και τα 6 κακοήθη. Μεταξύ των 120 περιστατικών που δημιουργήθηκαν, 25 επανελήφθησαν ώστε να διαπιστωθεί η συνέπεια των τριών παρατηρητών. Από τους παρατηρητές ζητήθηκε αρχικά να εντοπίσουν τον ΜΠΟ, στη συνέχεια να τον χαρακτηρίσουν ως προσομοιωμένο ή αληθινό και τέλος να τον ταξινομήσουν ως πιθανώς καλοήθη ή πιθανώς κακοήθη. Σύμφωνα με τα αποτελέσματα, περισσότεροι από 50% των προσομοιωμένων όζων δεν μπορούσαν να διαχωριστούν και χαρακτηρίστηκαν από τους παρατηρητές ως αληθινοί. Όσον αφορά την κατάταξη των όζων σε πιθανώς καλοήθη ή πιθανώς κακοήθη, η ταξινόμηση των προσομοιωμένων όζων ήταν σε συμφωνία με την ταξινόμηση των τριών ανεξάρτητων ιατρών. Αξίζει τέλος να αναφέρουμε ότι 28 περιστατικά χαρακτηρίστηκαν και από τους τρεις παρατηρητές ως αληθινά, όντας προσομοιωμένα.The purpose of this thesis is the development of a method for the modeling of Solitary Pulmonary Nodule (SPN) in Computed Tomography (CT) and Positron Emission Tomography (PET) images. The modeling of SPN was implemented by Monte Carlo simulation methods taking into consideration its morphological characteristics, internal features and Standardized Uptake Value (SUV) activity distribution. With this method, realistic images of various types of simulated SPNs were generated and embedded into raw data acquired from 5 different patients into CT and PET slices. The raw data were acquired using a clinical PET/CT scanner of the Nuclear Medicine Department of BBRFA, and for image reconstruction the software open STIR was used (http://stir.sourceforge.net). For the final validation of the model, an observer study from three independent medical experts was performed. A total of 80 simulated SPNs were produced and in this quantity, the percentage of benignity and malignancy was 80% and 20% respectively. Furthermore, 20 real cases with SPN were selected, 14 of them were benign and 6 malignant. Among the 120 cases, 25 of them were repeated in order to check the consistency of the observers. The reviewers were asked to localize the SPN, then to characterize the lesion as simulated or real and finally to classify it as probably benign or probably malignant. According to the results, more than 50% of the simulated lesions could not be differentiated from the real ones lesions and were designated as real. Regarding the classification of the nodules to probably benign or probably malignant, we noticed that the simulated class was consistent with the observers’ classification. Finally, it’s worth to be noted that, in 28 cases, all of the three observers designated the simulated lesion as real

    Οικιακά ρομπότ: ψυχαγωγία και λειτουργικότητα με ευφυή χαρακτηριστικά

    Get PDF
    Διπλωματική εργασία--Πανεπιστήμιο Μακεδονίας, Κοζάνη, 2010.Σε μια κοινωνία οπώς η σημερινή που όλο και περισσότερο στηρίζεται στην αυτοματοποίηση και την χρήση ευφυών συστημάτων και συσκευών δεν θα μπορούσαν να λείπουν και τα ρομπότ με ευφυή συμπεριφορά για οικιακή χρήση. Συσκευές δηλαδή τέτοιες που είναι σε θέση με τον ανάλογο προγραμματισμό να μπορούν να υλοποιούν καταστάσεις και εργασίες που θα έκανε και ένας απλός άνθρωπος. Σκοπός της διπλωματικής εργασίας είναι η παρουσίαση των οικιακών ρομπότ και ο προγραμματισμός ενός διαδεδομένου τύπου ρομπότ της εταιρίας Parallax, ώστε να μπορέσουμε να παρατηρήσουμε αυτή την ευφυή συμπεριφορά με αποτέλεσμα να ικανοποιηθούν όλοι εκείνοι οι περιορισμοί που τίθενατι κάθε φορά

    Βελτιστοποίηση Συναρτήσεων με Άμεσες Μεθόδους

    Get PDF
    Η διπλωματική εργασία έχει ως σημείο αναφοράς έναν σημαντικό κλάδο της Αριθμητικής Ανάλυσης που αφορά τη βελτιστοποίηση συναρτήσεων, με το ενδιαφέρον μας να επικεντρώνεται σε μεθόδους που δεν κάνουν χρήση τεχνικών του Διαφορικού Λογισμού. Η θεωρία βελτιστοποίησης και οι σχετικές τεχνικές καταλαμβάνουν μια μεγάλη περιοχή των εφαρμοσμένων μαθηματικών. Στην παρούσα μελέτη εξετάζουμε το θέμα τόσο από θεωρητικής, όσο και από υπολογιστικής άποψης, με υλοποίηση των σχετικών αλγορίθμων στο Matlab. Αρχικά δίνεται ο σχετικός συμβολισμός και προτείνεται ο κατάλληλος φορμαλισμός για το πρόβλημα που μας ενδιαφέρει. Στην συνέχεια αναλύεται το θεωρητικό υπόβαθρο για τις μεθόδους άμεσης αναζήτησης που εξετάζουμε. Ως διαφωτιστικό παράδειγμα, αναλύουμε με λεπτομέρεια τη σχετικά απλή μέθοδο Compass και δίνουμε τον κώδικα Matlab που την υλοποιεί. Στην συνέχεια θα εξετάσουμε τις άλλες τρεις μεθόδους (ενισχυμένη Compass, Box και Hooke – Jeeves) που θα χρησιμοποιήσουμε, αντιμετωπίζοντάς τις ως ειδικές περιπτώσεις της γενικής θεωρίας. Για κάθε μέθοδο, δίνουμε και πάλι τον κώδικα Matlab. Τέλος, εκτελούνται αριθμητικά πειράματα πάνω σε τέσσερις συναρτήσεις δοκιμής, προκειμένου να ελέγξουμε την αποτελεσματικότητα των μεθόδων, τόσο μεμονωμένα, όσο και συγκριτικά. Στη γενική του διατύπωση ένα πρόβλημα βελτιστοποίησης, είναι ένα πρόβλημα εύρεσης της καλύτερης δυνατής λύσης από ένα δεδομένο σύνολο διαθέσιμων επιλογών. Στην απλούστερη περίπτωση, συνίσταται στην ελαχιστοποίηση (ή μεγιστοποίηση) μιας πραγματικής συνάρτησης.The thesis has as a reference point an important branch of Numerical Analysis of the optimization function. Our interest focus on methods that do not use techniques of Differential Calculus. The optimization theory and related techniques occupy on a large area of ​​applied mathematics. In this study we examine the issue from both theoretical and computational point of view, with implementation of the relevant algorithms in Matlab. Originally the related symbolism is given and appropriate formalism is proposed for the problem of interest. The theoretical background is analyzed for direct search optimization methods. As an enlightening example, we analyze in detail the relatively simple method of Compass and give the Matlab code implementation. Then we will examine the other three calculation methods (enhanced Compass, Box and Hooke - Jeeves) that we will use, treating them as special cases of the general theory. For each method, we will provide the Matlab implementation code. Finally, numerical experiments performed on our four test functions in order to check the effectiveness of procedures, both individually and comparatively. In general, a formulation optimization problem is a problem of finding the best solution from a given set of available options. In the simplest case, our main research goal is to minimize (or maximize) a real function

    Pathlet Learning for Compressing Trajectories

    Get PDF
    Η ευρεία ανάπτυξη συσκευών GPS έχει δημιουργήσει γιγαντιαία σύνολα δεδομένων για τις τροχιές πεζών και οχημάτων. Αυτά τα σύνολα δεδομένων παρέχουν μεγάλες ευκαιρίες για την ενίσχυση της κατανόησης των προτύπων μετακίνησης ανθρώπων, ωφελώντας έτσι πολλές εφαρμογές που κυμαίνονται από υπηρεσίες βάσει τοποθεσίας (LBS) έως σχεδιασμός του συστήματος μεταφοράς. Σε αυτό το έργο, εισάγουμε την έννοια του Pathlet με σκοπό τη συμπίεση τροχιών. Λαμβάνοντας μια συλλογή τροχιών σε έναν οδικό χάρτη ως είσοδο, επιδιώκουμε να υπολογίσουμε ένα συμπαγές λεξικό με Pathlets έτσι ώστε ο αριθμός των διαδρομών που χρησιμοποιούνται για να αντιπροσωπεύσουν κάθε τροχιά να ελαχιστοποιείται. Σε αυτήν την εργασία μελετάμε τους διάφορους αλγόριθμους εύρεσης αυτών των λεξικών και μέσω συμπερασμάτων να καλυτερεύσουμε την λύση μας.The pervasiveness of GPS devices has created many large datasets of pedestrian and vehicle trajectories. These datasets offer great opportunities for enhancing our understanding of human mobility patterns, thus benefiting many applications ranging from location-based services (LBS) to transportation system planning.In this work, we introduce the notion of pathlet for the purpose of compressing trajectories.Given a collection of trajectories on a roadmap as input, we seek to compute a compact dictionary of pathlets so that the number of pathlets that are used to represent each trajectory is minimized. In this paper we study algorithms for finding those dictionaries and through conclusions to enhance our solution

    ανίχνευση αλλαγών και συσταδοποίηση σε πραγματικό χρόνο

    Get PDF
    Καθώς ο όγκος των πληροφοριών που είναι διαθέσιμες αυξάνεται με εκθετικό ρυθμό με την πάροδο του χρόνου, προκύπτει η ανάγκη εξαγωγής της χρήσιμης γνώσης που βρίσκεται συσσωρευμένη στην πληροφορία. Η μελέτη τεχνικών μέσω των οποίων επιτυγχάνεται αυτό, αποτελεί ένα σημαντικό πεδίο έρευνας. Σκοπός της εργασίας είναι να εξετάσω τους τρόπους με τους οποίους μπορώ να βρω αλλαγές σε χρονοσειρές με αριθμητικά δεδομένα σε πραγματικό χρόνο, χρησιμοποιώντας αλγορίθμους ανίχνευσης αλλαγών(change detection) και συσταδοποίησης (clustering). Με πειραματικές μελέτες αναλύω τα θετικά και αρνητικά της κάθε υλοποίησης και καταλήγω στις ποιο αποτελεσματικές μετρικές για τον στόχο αυτό.While the volume of information that is available increases with an exponential rate over time, the need to export the useful knowledge that is accumulated in the information. The study of the techniques through with which this is achieved, is an important field of research. The purpose of this project is to look at the ways in which I can find changes in datasets with numerical data, using change detection and clustering algorithms. With experimental studies I analyze the pros and cons of each algorithm and I conclude to the most effective metrics for this purpose
    corecore