268 research outputs found
Model Optimasi Penulisan Artikel yang Bersaing di Halaman Hasil Mesin Pencari
Mesin pencari sangat berperan sebagai jembatan antara penyedia informasi dan pencari informasi. Mesin pencari memiliki algoritma tersendiri untuk mendapatkan informasi dari halaman website yang kemudian disimpan dalam basis data berupa indeks. Saat ini jumlah website yang beroperasi di internet sudah sangat banyak, sehingga menyebabkan persaingan pada posisi di halaman hasil mesin pencari menjadi sangat ketat. Posisi di halaman hasil mesin pencari akan sangat berpengaruh terhadap banyaknya pengunjung. Penelitian ini menghasilkan website yang dikembangkan untuk membantu penulisan artikel yang tepat dan cocok untuk bersaing di mesin pencari. Melalui website ini, artikel yang telah ditentukan kata kuncinya akan dibantu untuk mengoptimalkannya. Beberapa hal yang perlu dioptimalkan akan diberikan saran secara otomatis oleh sistem dan sistem secara otomatis akan menghitung skor untuk artikel yang ditulis. Hasil dari pengembangan website ini bermanfaat bagi webmaster, penulis artikel dan marketing internet untuk meningkatkan kemampuan saing website mereka di mesin pencari, khususnya bagi blogger dan pemilik toko online, dimana mereka sangat tergantung pada posisi di SERP (search engine results page). Selain itu penelitian ini diharapkan bermanfaat bagi siapapun yang ingin membahas lebih lanjut tentang SEO (search engine optimization), karena teknik SEO selalu berubah mengikuti algoritma mesin pencari
An Analysis of Requirement Engineering and Techniques: A Literature Review
This research explores the essentiality of software requirements engineering in cycles software development. The focus lies on three main techniques, namely Functional Requirement, Non-Functional Requirement, Viewpoint Orientation Requirement Definition (VORD), and analysis through USECASE (Use Case Diagram and Use Case Scenario). Through a review systematic literature, ten relevant articles have been comprehensively reviewed in order to understand these techniques. The research results show that functional and non-functional needs have a role central to software development. Functional requirements describe what is should be carried out by the system, while non-functional requirements include aspects such as performance and security aspects. The VORD approach is proven to be efficient in understanding various angles views involved in system requirements, through the steps of identification, structure, documentation, and system point of view mapping. Besides that, the USECASE method helps describe user interactions with the internal system real-world situations, providing deep insight into user needs. This research make significant contributions to understanding the nature of software requirements engineering, and provide an important foundation for future research and practic
Classifiers Evaluation: Comparison of Performance Classifiers Based on Tuples Amount
The aim of this study is to compare some classifiers’ performance related to the tuples amount. The different metrics of performance has been considered, such as: Accuracy, Mean Absolute Error (MAE), and Kappa Statistic. In this research, the different numbers of tuples are considered as well. The readmission process dataset of Diabetic patients, which has been experimented, consists of 47 features and 49.736 tuples. The methodology of this research starts from preprocessing phase. After that, the clean dataset is divided into 5 subsets which represent every multiple of 10.000 tuples randomly. Each particular subset will be validated by three traditional classifiers i.e. Naive Bayes, K-Nearest Neighbor (k-NN), and Decision Tree. We also implement some setting parameters of each classifier except Naïve Bayes. Validation method used in this research is 10-Fold Cross-Validation. As the final conclusion, we compare the performance of classifiers based on the number of tuples. Our study indicates that the more the number of tuples, the lower and weaker the MAE and Accuracy performances whereas the kappa statistic performance tend to be fluctuated. Our study also found that Naïve Bayes outperforms k-NN and Decision Tree in overall. The top classifiers performances were reached in a 20.000-tuple evaluation.The aim of this study is to compare some classifiers’ performance related to the tuples amount. The different metrics of performance has been considered, such as: Accuracy, Mean Absolute Error (MAE), and Kappa Statistic. In this research, the different numbers of tuples are considered as well. The
Pengaruh Regret Aversion Bias dan Overconfidence Terhadap Pengambilan Keputusan Investasi Cryptocurrency Pada Investor Generasi Milenial
The aim of this study is to investigate the effect of regret-aversion bias and overconfidence on millennial investors' cryptocurrency investment decisions. The population in this study are people from Sumatra, Java, and Nusa Tenggara (Bali) who have invested in or only know about cryptocurrencies. For the sampling technique of this study using the Objective Sampling method for a population of 35 people. The method used in this study is a quantitative method using primers which were analyzed by Path Analysis using the Smart Pls 3.0 program. The results obtained in this study indicate that regret-avoidance bias has no significant effect on investment decision making, while overconfidence has a significant effect on investment decision making
COMPARISON NAÏVE BAYES CLASSIFIER, K-NEAREST NEIGHBOR AND SUPPORT VECTOR MACHINE IN THE CLASSIFICATION OF INDIVIDUAL ON TWITTER ACCOUNT
In current’s digital era, people can take advantage of the ease and effectiveness of interacting with each other. The most popular online activity in Indonesia is the use of sosial media. Twitter is a social media that allows people to build communication between users and get the latest information or news. Information obtained from twitter can be processed to get the characteristics of a person using the DISC method, DISC is a behavioral model that helps every human being why someone does. To classify the tweet into the DISC method using algorithms naïve bayes classifier, k-nearest neighbor and support vector machine with the TF-IDF weighting. The results is compare the accuracy of the naïve bayes classifier algorithm has an accuracy rate of 31.5%, k-nearest neighbor has an accuracy rate of 23.8%, while the support vector machine has an accuracy rate of 28.4%
Penerapan Algoritma Boyer Moore yang di Modifikasi untuk stemmer Bahasa Indonesia
Proses stemming dalam Natural Language Processing (NLP) adalah tahap penting dalam pra-pemrosesan data untuk mengurai bentuk kata menjadi kata dasar. Dalam konteks bahasa Indonesia, proses ini melibatkan penghapusan imbuhan untuk menemukan kata dasar. Beberapa metode stemming yang umum digunakan termasuk Porter stemmer, Lancaster stemmer, Snowball stemmer, dan Nazief Andriani stemmer. Meskipun banyak penelitian telah dilakukan untuk meningkatkan akurasi stemming, penelitian ini menyoroti peran algoritma string matching, terutama algoritma Boyer Moore, dalam mencocokkan hasil stemming dengan kamus kata. Namun, implementasi langsung algoritma Boyer Moore menghadapi kendala karena mencocokkan pattern pada seluruh teks, yang harusnya hanya pada bagian kanan kata. Oleh karena itu, algoritma ini dimodifikasi agar sesuai dengan kebutuhan dan tetap mempertahankan kinerjanya. Studi terdahulu menunjukkan bahwa algoritma Boyer Moore memiliki kinerja yang lebih cepat dibandingkan dengan beberapa algoritma string matching lainnya seperti Knuth Morris Pratt, Brute Force, dan Rabin Karp. Hasil penelitian ini berhasil mencapai tingkat akurasi sebesar 95,2% dari total 500 kata yang diproses. Hasil dari penilitian ini juga menunjukan kesalahan stemming yang terjadi hanya diakibatkan dari understemming dan beberapa yang kata tidak ter-stemming
MODEL OPTIMASI PENULISAN ARTIKEL YANG BERSAING DI HALAMAN HASIL MESIN PENCARI
Mesin pencari sangat berperan sebagai jembatan antara penyedia informasi dan pencari informasi. Mesin pencari memiliki algoritma tersendiri untuk mendapatkan informasi dari halaman website yang kemudian disimpan dalam basis data berupa indeks. Saat ini jumlah website yang beroperasi di internet sudah sangat banyak, sehingga menyebabkan persaingan pada posisi di halaman hasil mesin pencari menjadi sangat ketat. Posisi di halaman hasil mesin pencari akan sangat berpengaruh terhadap banyaknya pengunjung. Penelitian ini menghasilkan website yang dikembangkan untuk membantu penulisan artikel yang tepat dan cocok untuk bersaing di mesin pencari. Melalui website ini, artikel yang telah ditentukan kata kuncinya akan dibantu untuk mengoptimalkannya. Beberapa hal yang perlu dioptimalkan akan diberikan saran secara otomatis oleh sistem dan sistem secara otomatis akan menghitung skor untuk artikel yang ditulis. Hasil dari pengembangan website ini bermanfaat bagi webmaster, penulis artikel dan marketing internet untuk meningkatkan kemampuan saing website mereka di mesin pencari, khususnya bagi blogger dan pemilik toko online, dimana mereka sangat tergantung pada posisi di SERP (search engine results page). Selain itu penelitian ini diharapkan bermanfaat bagi siapapun yang ingin membahas lebih lanjut tentang SEO (search engine optimization), karena teknik SEO selalu berubah mengikuti algoritma mesin pencari
Analisis Dan Perancangan Sistem Informasi Penjualan Pada Kedai T-shirt YOGYAKARTA Menggunakan Framework Codeigniter
Kedai T-Shirt Yogyakarta is a company engaged in printing t-shirts. The company still using manual system of recording information and services to customers. That found several problems such as errors in input data, calculation of payments, and sales reports. Therefore the need for a sales system that can improve the performance of Kedai T-Shirt Yogyakarta.To build sales system, the authors obtained the data using the method of observation, interviews, and literature. The design uses DFD and implemented in webbased programming using Codeigniter framework.The system is built is expected to resolve problems such as being able to input data, calculation of payments, and sales reports. So the system is able to maximize the company's performance in serving customers
PREDIKSI PRODUKSI JAGUNG MENGGUNAKAN ALGORITMA APRIORI DAN REGRESI LINEAR BERGANDA (STUDI KASUS : DINAS PERTANIAN KABUPATEN DOMPU)
Pangan Jagung adalah termasuk sumber karbohidrat yang penting. Diberbagai wilayah, pangan jagung merupakan jenis makanan yang dapat membakar lemak dikarenakan jagung mempunyai kandungan tinggi lemak dan kalori daripada nasi. Selain itu, asam lemak dan essensial yang dimiliki oleh jagung dapat membantu mencegah penyakit. Sebagai permasalahan pada studi kali ini, permintaan pangan jagung terus meningkat secara signifikant. Akibat dari konsumsi pangan jagung yang terus tumbuh dan meningkat namun produksi jagung itu sendiri masih dalam cakupan rendah sehingga menimbulkan ketimpangan dalam memenuhi kebutuhan pangan jagung. Seiring berjalannya waktu, perubahan produksi jagung Kabupaten Dompu setiap tahun, maka diperlukan suatu metode untuk memperkirakan produksi jagung kedepannya apakah akan menurun atau akan meningkat. Hasil ramalan ini nantinya digunakan sebagai indikator pangan jagung di Kabupaten Dompu. Pada studi kali ini, menggunakan data panen jagung yang didapatkani Dinas Pertanian Perkebunan Kabupaten Dompu periode tanam tahun 2012 sampai 2021. Maka dari itu, studi prediksi produksi jagung ini membutuhkan beberapa teknik algoritma diantaranya regresi linear berganda sebagai teknik prediksi produksi jagung, sedangkan apriori untuk melakukan peramalan pencarian barang yang sering dibeli oleh pelanggan menggunakan teknik asosisasi. Hasil perhitungan teknik regresi linear berganda untuk memprediksi jagung menggunakan pengujian MAD senilai 54, MSE senilai 231372 dan RMSE senilai 481 dan hasil persamaan regresi linear berganda diperoleh Y= -70.860 + -0.505x1 + 7.069x2 + -4.349x3. Sedangkan perhitungan menggunakan teknik asosiasi, didapatkan 2 rules dengan ketentuan minimal nilai support 10% dan confidence 70% diperoleh IF BUY Gandasil THEN BUY Ricestar with confidence 100%
Selection of the Best K-Gram Value on Modified Rabin-Karp Algorithm
The Rabin-Karp algorithm is used to detect similarity using hashing techniques, from related studies modifications have been made in the hashing process but in previous studies have not been conducted research for the best k value in the K-Gram process. At the stage of stemming the Nazief & Adriani algorithm is used to transform the words into basic words. The researcher uses several variations of K-Gram values to determine the best K-Gram values. The analysis was performed using Ukara Enhanced public data obtained from the Kaggle with a total of 12215 data. The student essay answers data totaled to 258 data in the group A and 305 in the group B, every student essay answers data in each group will be compared with the answers of other fellow group member. Research results are the value of k = 3 has the best performance which has the highest some interpretations of 1-14% (Little degree of similarity) and 15-50% (Medium level of similarity) compared to values of k = 5, 7, and 9 which have the highest number of interpretation results 0%-0.99% (Document is different). However, if the students essay answers compared have 100% (Exactly the same) interpretations, the k value on K-Gram does not affect the results
- …