48 research outputs found

    Reduksi Dimensi Fitur Menggunakan Algoritma Aloft Untuk Pengelompokan Dokumen

    Full text link
    Pengelompokan dokumen masih memiliki tantangan dimana semakin besar dokumen maka akan menghasilkan fitur yang semakin banyak. Sehingga berdampak pada tingginya dimensi dan dapat menyebabkan performa yang buruk terhadap algoritma clustering. Cara untuk mengatasi masalah ini adalah dengan reduksi dimensi. Metode reduksi dimensi seperti seleksi fitur dengan metode filter telah digunakan untuk pengelompokan dokumen. Akan tetapi metode filter sangat tergantung pada masukan pengguna untuk memilih sejumlah n fitur teratas dari keseluruhan dokumen. Algoritma ALOFT (At Least One FeaTure) dapat menghasilkan sejumlah set fitur secara otomatis tanpa adanya parameter masukan dari pengguna. Karena sebelumnya algoritma ALOFT digunakan pada klasifikasi dokumen, metode filter yang digunakan pada algoritma ALOFT membutuhkan adanya label pada kelas sehingga metode filter tersebut tidak dapat digunakan untuk pengelompokan dokumen. Pada penelitian ini diusulkan metode reduksi dimensi fitur dengan menggunakan variasi metode filter pada algoritma ALOFT untuk pengelompokan dokumen. Sebelum dilakukan proses reduksi dimensi langkah pertama yang harus dilakukan adalah tahap preprocessing kemudian dilakukan perhitungan bobot tfidf. Proses reduksi dimensi dilakukan dengan menggunakan metode filter seperti Document Frequency (DF), Term Contribution (TC), Term Variance Quality (TVQ), Term Variance (TV), Mean Absolute Difference (MAD), Mean Median (MM), dan Arithmetic Mean Geometric Mean (AMGM). Selanjutnya himpunan fitur akhir dipilih dengan algoritma ALOFT. Tahap terakhir adalah pengelompokan dokumen menggunakan dua metode clustering yang berbeda yaitu k-means dan Hierarchical Agglomerative Clustering (HAC). Dari hasil ujicoba didapatkan bahwa kualitas cluster yang dihasilkan oleh metode usulan dengan menggunakan algoritma k-means mampu memperbaiki hasil dari metode VR

    Ekstraksi Trending Issue Dengan Pendekatan Distribusi Kata Pada Pembobotan Term Untuk Peringkasan Multi-dokumen Berita

    Full text link
    Penggunaan trending issue dari media sosial Twitter sebagai kalimat penting efektif dalam proses peringkasan dokumen dikarenakan trending issue memiliki kedekatan kata kunci terhadap sebuah kejadian berita yang sedang berlangsung. Pembobotan term dengan TFIDF yang hanya berbasis pada dokumen itu tidak cukup untuk menentukan in-deks dari suatu dokumen. Penentuan indeks yang akurat juga bergantung pada nilai informatif suatu term terhadap kelas atau cluster. Term yang sering muncul di banyak kelas atau cluster seharusnya tidak menjadi term yang penting meskipun nilai TFIDF-nya tinggi. Penelitian ini bertujuan untuk melakukan peringkasan multi dokumen berita menggunakan ekstraksi trending issue dengan pendekatan term distribution on centroid based (TDCB) pada pembobotan fitur dan mengintegrasikannya dengan query expansion sebagai kata kunci dalam peringkasan dokumen. Metode TDCB dilakukan dengan mempertimbangkan adanya kemunculan sub topic dari cluster hasil pengelompokan tweets yang dapat dijadikan nilai informatif tambahan dalam penentuan pembobotan kalimat penting penyusunan ringkasan. Tahapan yang dilakukan untuk menghasilkan ringkasan multi dokumen berita antara lain ekstraksi trending issue, query expansion, auto labelling, seleksi berita, ekstraksi fitur berita, pembobotan kalimat penting dan penyusunan ringkasan. Hasil percobaan menunjukan metode peringkasan dokumen dengan menambahkan nilai informatif sub topic trending issue NeFTIS-TDCB menunjukan nilai rata-rata max-ROUGE-1 terbesar 0.8615 untuk n=30 dari seluruh varian topik berita

    Three-level Local Thresholding Berbasis Metode Otsu Untuk Segmentasi Leukosit Pada Citra Leukemia Limfoblastik Akut

    Get PDF
    . Segmentation of Acute Lymphoblastic Leukemia (ALL) images can be used to identify the presence of ALL disease. In this paper, three-level local thresholdings based on Otsu method is presented for leucocytes segmentation in ALL image. Firstly, a method based on Gram-Schmidt orthogonalization theory is applied to partition the input image into several sub-images. The proposed method extends Otsu’s bi-level thresholding to three-level thresholding method to find two local threshold values that maximize between-class variance. Using the two local threshold values and three-level local thresholding technique then segmenting each of sub-images into three regions, e.g. nucleus, cytoplasm, and background. To evaluate the performance of the proposed method, 32 peripheral blood smear images are used. The performance of the proposed method is compared with manually segmented ground truth using Zijdenbos similarity index (ZSI), precision, and recall. An experimental evaluation demonstrates superior performance over three-level global thresholding for ALL image segmentation

    Komparasi Metode Scica Dan Wica Pada Praproses Data Eeg Otak Manusia Untuk Deteksi Penyakit Epilepsi

    Full text link
    Epilepsi merupakan salah satu kelainan pada otak manusia yang tidak dapat disembuhkan. Penyakit ini menimbulkan kejang pada tubuh dan sangat mengganggu aktivitas. Pada tingkat yang parah, epilepsi dapat membahayakan nyawa penderitanya. Oleh sebab itu, epilepsi harus dideteksi secara dini agar penderita segera mendapatkan penanganan yang tepat sehingga keadaannya tidak memburuk. Pada penelitian ini, deteksi epilepsi dilakukan dengan menggunakan beberapa metode, yaitu Independent Component Analysis (ICA), Wavelet Transform (WT), dan Multilayer Perceptron (MLP). Hasil deteksi diklasifikasikan ke dalam tiga kelas, yaitu normal, epilesi tidak kejang, dan epilepsi kejang. Data rekaman electroencephalogram (EEG) yang digunakan berasal dari ''Klinik für Epileptologie, Universität Bonn” yang diperoleh secara online. Data tersebut merupakan EEG single channel sehingga harus menggunakan teknik-teknik ICA untuk single channel, seperti Single Channel Independent Component Analysis (SCICA) dan Wavelet Independent Component Analysis (WICA). Penelitian ini membandingkan kedua teknik tersebut dalam melakukan praproses data sehingga akan terlihat teknik mana yang lebih baik. Hasil pendeteksian terbaik dihasilkan dari model yang menggunakan teknik SCICA sebagai penghilang derau dan ektraksi fitur Discrete Wavelet Transform Daubechies 6 dengan 4 level. Berdasarkan uji coba, metode tersebut menghasilkan akurasi sebesar 92.09%

    A Comparative Study of Finger Vein Recognition by Using Learning Vector Quantization

    Full text link
    Âľ This paper presents a comparative study of finger vein recognition using various features with Learning Vector Quantization (LVQ) as a classification method. For the purpose of this study, two main features are employed: Scale Invariant Feature Transform (SIFT) and Local Extensive Binary Pattern (LEBP). The other features that formed LEBP features: Local Multilayer Binary Pattern (LmBP) and Local Directional Binary Pattern (LdBP) are also employed. The type of images are also become the base of comparison. The SIFT features will be extracted from two types of images which are grayscale and binary images. The feature that have been extracted become the input for recognition stage. In recognition stage, LVQ classifier is used. LVQ will classify the images into two class which are the recognizable images and non recognizable images. The accuracy, false positive rate (FPR), and true positive rate (TPR) value are used to evaluate the performance of finger vein recognition. The performance result of finger vein recognition becomes the main study for comparison stage. From the experiments result, it can be found which feature is the best for finger vein reconition using LVQ. The performance of finger vein recognition that use SIFT feature from binary images give a slightly better result than uisng LmBP, LdBP, or LEBP feature. The accuracy value could achieve 97,45%, TPR at 0,9000 and FPR at 0,0129

    Perancangan Fungsi Rangkaian Logika Melalui Finite State Machine Dengan Mekanisme Belajar Dari Contoh

    Get PDF
    Perancangan rangkaian logika secara umum dapat dilakukan dengan metode sebagai berikut : mendefinisikan permasalahan, membentuk diagram keadaan atau tabel keadaan, membentuk tabel kebenaran, membentuk fungsi logika dan menuangkannya dalam rangkaian logika. Penerapan metode tersebut membutuhkan ketelitian dan waktu yang sebanding dengan kompleksitas rangkaian yang dirancang. Karena itu, perlu dibuat sebuah perangkat lunak untuk membantu proses perancangan rangkaian logika, agar proses perancangan dapat dilakukan dengan mudah, cepat, dan dengan ketelitian yang tinggi. Untuk merancang rangkaian logika,dalam penelitian ini diterapkan mekanisme belajar dari contoh, yang memanfaatkan teori-teori otomata dan switching. Penelitian ini mencoba membangun model untuk rangkaian logika yang diinginkan berdasarkan atas contoh input/output dari rangkaian logika yang diinginkan, dengan langkah-langkah : membangun model dari contoh yang diberikan, melakukan modifikasi model (jika diperlukan) berdasarkan atas contoh tambahan yang diberikan, memilih salah satu model sebagai solusi akhir jika diperoleh lebih dari satu model, dan menerjemahkan model ke dalam rangkaian logika. Penelitian ini menghasilkan model untuk rangkaian logika dalam bentuk finite state machine, yang kemudian diterjemahkan menjadi fungsi logika dalam bentuk sum of product. Dari hasil uji coba yang telah dilakukan, untuk setiap contoh yang diberikan, perangkat lunak yang dikembangkan terbukti mampu membentuk minimal sebuah model dan menerjemahkannya menjadi fungsi logika. Namun demikian, tingkat kesesuaian antara model yang dihasilkan dengan yang diharapkan masih tergantung pada kelengkapan contoh yang diberikan. Selain itu, perangkat lunak ini juga mampu membedakan jenis rangkaian logika yang dihasilkan, mampu melakukan modifikasi pada model yang dihasilkan serta mampu menangani contoh-contoh yang inkonsisten

    Modifikasi Ant Colony Optimization Berdasarkan Gradient Untuk Deteksi Tepi Citra

    Get PDF
    . Ant Colony Optimization (ACO) is an optimization algorithm which can be used for image edge detection. In traditional ACO, the initial ant are randomly distributed. This condition can cause an imbalance ants distribution. Based on this problem, a modified ant distribution in ACO is proposed to optimize the deployment of ant based gradient. Gradient value is used to determine the placement of the ants. Ants are not distributed randomly, but are placed in the highest gradient. This method is expected to be used to optimize the path discovery. Based on the test results, the use of the proposed ACO modification can obtain an average value of the Peak Signal to Noise Ratio (PSNR) of 12.724. Meanwhile, the use of the traditional ACO can obtain an average value of PSNR of 12.268. These results indicate that the ACO modification is capable of generating output image better than traditional ACO in which ants are initially distributed randomly

    Rancang Bangun Editor Kurva Polyline Dengan Metode Curve Analogies

    Get PDF
    Model-model kurva banyak digunakan untuk pembuatan sketsa. Untuk merancang model kurva untuk sketsa tersebut dapat dilakukan dengan berbagai macam cara. Salah satunya adalah menyusun program secara manual dalam membentuk model-model kurva untuk menggambar sketsa yang diinginkan. Pendekatan ini memberi kontrol yang besar ke programmer. Pendekatan lain yaitu mengambil detail kurva yang dimasukkan pengguna. Salah satu metode dalam pendekatan ini adalah dengan mempelajari style-style garis dari contoh - contoh. Pendekatan ini disebut dengan pendekatan curve analogies. Penelitian ini bertujuan untuk menerapkan metode curve analogies dalam membuat editor kurva polyline. Curve Analogies bertujuan membentuk kurva baru dari kurva contoh. Inputan untuk kurva analogies ada 3 macam yaitu dua kurva garis dan satu kurva detil (kurva contoh). Dua kurva garis tersebut adalah kurva inputan dari pengguna dan kurva yang mengikuti kurva detil. Dua kurva garis ini digunakan untuk mencari nilai transformasi. Sedangkan untuk membuat kurva baru dilakukan proses synthesis dengan algoritma synthesis. Algoritma synthesis membentuk kurva baru berdasarkan style dari kurva contoh. Kurva hasil proses synthesis di transformasi sesuai dengan nilai transformasinya. Kurva baru yang dihasilkan harus selalu melalui titik kontrol yang pertama dan terakhir dari kurva garis yang diinputkan penguna. Uji coba perangkat lunak ini dilakukan dengan menjalankan beberapa skenario. Skenario pertama dengan memasukkan satu obyek gambar, kedua memasukkan lebih dari satu obyek gambar, ketiga membuat kurva contoh baru dan yang keempat melakukan sintesa kurva. Dari hasil beberapa skenario tersebut dapat disimpulkan metode curve analogies dapat digunakan untuk membuat editor kurva polyline

    Sistem Temu Kembali Citra Daun Menggunakan Metode Reduced Multi Scale Arch Height (R-march) Pada Smartphone

    Full text link
    Metode yang digunakan dalam sistem temu kembali citra daun harus efesien agar dapat berjalan baik pada smartphone yang memiliki sumber daya terbatas. Salah satu metode sistem temu kembali citra daun yang cukup efesien dan dapat diterapkan pada smartphone adalah Multiscale Arch Height (MARCH). MARCH menggunakan karakteristik tinggi lengkungan pada kontur daun sebagai fitur untuk proses temu kembali citra daun. Pada metode MARCH sampel titik pada kontur yang digunakan cukup banyak sehingga masih dimungkinkan mengurangi komputasi metode MARCH dengan cara mereduksi titik acuan Arch Height yang digunakan. Pada penelitian ini diusulkan metode sistem temu kembali citra daun pada smartphone menggunakan metode reduced multi scale arch height (R-MARCH) yang lebih efesien dibanding metode MARCH. Dari percobaan yang sudah dilakukan, didapatkan waktu komputasi yang dibutuhkan metode MARCH adalah 864 milidetik sedangkan R-MARCH 632 milidetik
    corecore