Jurnal Teknologi Informasi dan Ilmu Komputer
Not a member yet
    1240 research outputs found

    Perbandingan Performa Arimax-Garch Dan Lstm Pada Data Harga Penutupan Saham PT Aneka Tambang Tbk (ANTM.JK)

    Get PDF
    Banyaknya data deret waktu dengan pola nonlinear dan memiliki volatilitas tinggi pada berbagai sektor membuat sulit untuk melakukan pemodelan klasik seperti Autoregressive Integrated Moving Average (ARIMA). Permasalahan ini dapat diatasi salah satunya dengan mengembangkan metode Autoregressive Integrated Moving Average with Exogenous- Generalized Autoregressive Conditional Heteroskedasticity (ARIMAX-GARCH) yang memanfaatkan kovariat eksternal, sehingga memberikan solusi lebih baik pada data yang tidak stasioner. Di sisi lain, metode deep learning seperti Long Short-Term Memory (LSTM) unggul dalam menangkap pola non-linear dan dependensi jangka panjang. Oleh karena itu, penelitian ini membandingkan performa ARIMAX-GARCH dan LSTM dalam memprediksi harga saham PT Aneka Tambang Tbk (ANTM.JK). Data mingguan penutupan harga saham ANTM.JK periode 1 Januari 2018 hingga 30 Oktober 2023 digunakan dalam penelitian ini. Pemodelan ARIMAX-GARCH dengan peubah kovariat berupa data harga nikel berjangka dunia digunakan karena terdapat pengaruh signifikan harga nikel terhadap harga penutupan saham ANTM.JK dan terdeteksi adanya heteroskedastisitas dalam model. Metode berbasis machine learning, LSTM digunakan karena metode ini dikenal memiliki akurasi prediksi yang baik. Pengolahan data dilakukan menggunakan bantuan software R-Studio dan Python. Hasil penelitian menunjukkan LSTM memiliki performa yang lebih baik dengan nilai MAPE sebesar 4,425%, nilai ini lebih kecil jika dibandingkan model terbaik ARIMAX(2,1,2)-GARCH(1,1) dengan MAPE 7,326%.   Abstract The large number of time series data with nonlinear patterns and high volatility in various sectors makes it difficult to perform classical modeling such as Autoregressive Integrated Moving Average (ARIMA). This problem can be overcome by developing the ARIMA with Exogenous- Generalized Autoregressive Conditional Heteroskedasticity (ARIMAX-GARCH) that utilizes external covariates, thus providing a better solution to non-stationary data. On the other hand, deep learning methods such as Long Short-Term Memory (LSTM) excel in capturing non-linear patterns and long-term dependencies. Therefore, this study compares the performance of ARIMAX-GARCH and LSTM in predicting the stock price of PT Aneka Tambang Tbk (ANTM.JK). Weekly closing data of ANTM.JK stock price from January 1, 2018 to October 30, 2023 are used in this study. ARIMAX-GARCH modeling with covariate variables in the form of world nickel futures price data is used because there is a significant effect of nickel prices on the closing price of ANTM.JK shares and heteroscedasticity is detected in the model. Machine learning-based method, LSTM is used because this method is known to have good prediction accuracy. Data processing is done using R-Studio and Python software. The results show that LSTM has better performance with a MAPE value of 4.425%, this value is smaller than the best model ARIMAX(2,1,2)-GARCH(1,1) with a MAPE of 7.326%.Banyaknya data deret waktu dengan pola nonlinear dan memiliki volatilitas tinggi pada berbagai sektor membuat sulit untuk melakukan pemodelan klasik seperti Autoregressive Integrated Moving Average (ARIMA). Permasalahan ini dapat diatasi salah satunya dengan mengembangkan metode Autoregressive Integrated Moving Average with Exogenous- Generalized Autoregressive Conditional Heteroskedasticity (ARIMAX-GARCH) yang memanfaatkan kovariat eksternal, sehingga memberikan solusi lebih baik pada data yang tidak stasioner. Di sisi lain, metode deep learning seperti Long Short-Term Memory (LSTM) unggul dalam menangkap pola non-linear dan dependensi jangka panjang. Oleh karena itu, penelitian ini membandingkan performa ARIMAX-GARCH dan LSTM dalam memprediksi harga saham PT Aneka Tambang Tbk (ANTM.JK). Data mingguan penutupan harga saham ANTM.JK periode 1 Januari 2018 hingga 30 Oktober 2023 digunakan dalam penelitian ini. Pemodelan ARIMAX-GARCH dengan peubah kovariat berupa data harga nikel berjangka dunia digunakan karena terdapat pengaruh signifikan harga nikel terhadap harga penutupan saham ANTM.JK dan terdeteksi adanya heteroskedastisitas dalam model. Metode berbasis machine learning, LSTM digunakan karena metode ini dikenal memiliki akurasi prediksi yang baik. Pengolahan data dilakukan menggunakan bantuan software R-Studio dan Python. Hasil penelitian menunjukkan LSTM memiliki performa yang lebih baik dengan nilai MAPE sebesar 4,425%, nilai ini lebih kecil jika dibandingkan model terbaik ARIMAX(2,1,2)-GARCH(1,1) dengan MAPE 7,326%.   Abstract The large number of time series data with nonlinear patterns and high volatility in various sectors makes it difficult to perform classical modeling such as Autoregressive Integrated Moving Average (ARIMA). This problem can be overcome by developing the ARIMA with Exogenous- Generalized Autoregressive Conditional Heteroskedasticity (ARIMAX-GARCH) that utilizes external covariates, thus providing a better solution to non-stationary data. On the other hand, deep learning methods such as Long Short-Term Memory (LSTM) excel in capturing non-linear patterns and long-term dependencies. Therefore, this study compares the performance of ARIMAX-GARCH and LSTM in predicting the stock price of PT Aneka Tambang Tbk (ANTM.JK). Weekly closing data of ANTM.JK stock price from January 1, 2018 to October 30, 2023 are used in this study. ARIMAX-GARCH modeling with covariate variables in the form of world nickel futures price data is used because there is a significant effect of nickel prices on the closing price of ANTM.JK shares and heteroscedasticity is detected in the model. Machine learning-based method, LSTM is used because this method is known to have good prediction accuracy. Data processing is done using R-Studio and Python software. The results show that LSTM has better performance with a MAPE value of 4.425%, this value is smaller than the best model ARIMAX(2,1,2)-GARCH(1,1) with a MAPE of 7.326%

    Optimasi Algoritma Support Vector Machine Berbasis Kernel Radial Basis Function (RBF) Menggunakan Metode Particle Swarm Optimization Untuk Analisis Sentimen

    Get PDF
    Di era digital, aplikasi Financial Technology (Fintech) telah menjadi bagian penting dalam kehidupan sehari-hari masyarakat. Kemudahan dan efisiensi yang ditawarkan oleh aplikasi Fintech menarik jutaan pengguna, yang aktif memberikan umpan balik dan ulasan di platform seperti Google Play Store. Ulasan ini menjadi sumber informasi berharga bagi pengembang untuk memahami persepsi pengguna, mengidentifikasi masalah, dan meningkatkan kualitas layanan. Penelitian ini bertujuan mengevaluasi efektivitas algoritma Particle Swarm Optimization (PSO) dalam meningkatkan akurasi analisis sentimen pada algoritma Support Vector Machine (SVM) dengan kernel Radial Basis Function (RBF). Data ulasan dikumpulkan melalui web scraping dari komentar di Google Play untuk tiga aplikasi Fintech, yaitu Flip, Neobank, dan Bank Jago. Tahapan pemrosesan meliputi pelabelan, preprocessing untuk membersihkan data, dan pembobotan kata menggunakan metode TF-IDF (Term Frequency-Inverse Document Frequency). Teknik Random Oversampling diterapkan untuk mengatasi ketidakseimbangan kelas dalam dataset. Hasil penelitian menunjukkan bahwa optimasi parameter dengan PSO mampu meningkatkan kinerja analisis sentimen, dengan peningkatan rata-rata sebesar 11,33% untuk setiap aplikasi. PSO juga meningkatkan akurasi model dalam menghadapi tantangan data tidak seimbang, memberikan wawasan yang lebih dalam bagi pengembang aplikasi untuk meningkatkan layanan.   Abstract Financial technology (Fintech) applications have become part of people\u27s daily lives in the digital era. The convenience and efficiency offered by Fintech applications have attracted millions of users, who actively provide feedback and reviews on platforms such as the Google Play Store. These reviews are an important source of information for application developers to understand user perceptions, identify problems, and improve service quality. The study investigates the effectiveness of the Particle Swarm Optimization (PSO) method for balanced and unbalanced datasets and how well it improves sentiment analysis accuracy when applied to the Support Vector Machine (SVM) algorithm when using Radial Basis Function (RBF) kernel. We conducted web scraping to collect user review data from Google Play for three FinTech applications: Flip, Neobank, and Bank Jago as research objects. Following data collection, the review data underwent preprocessing steps, such as word weighting using the TF-IDF (Term Frequency-Inverse Document Frequency), labeling, and preprocessing to clean the data. Random Oversampling resolved the dataset\u27s class imbalance, making all classes representative in the study. The results of this study indicate that parameter optimization with PSO can improve the performance of sentiment analysis on the subjects studied. Furthermore, based on the results of SVM testing using parameter optimization of the PSO algorithm, an average performance increase of 11.33% was obtained for each application that had been analyzed. The results also show that PSO improves model accuracy in sentiment analysis with imbalanced data challenges, providing deeper insights for application developers to improve services.Di era digital, aplikasi Financial Technology (Fintech) telah menjadi bagian penting dalam kehidupan sehari-hari masyarakat. Kemudahan dan efisiensi yang ditawarkan oleh aplikasi Fintech menarik jutaan pengguna, yang aktif memberikan umpan balik dan ulasan di platform seperti Google Play Store. Ulasan ini menjadi sumber informasi berharga bagi pengembang untuk memahami persepsi pengguna, mengidentifikasi masalah, dan meningkatkan kualitas layanan. Penelitian ini bertujuan mengevaluasi efektivitas algoritma Particle Swarm Optimization (PSO) dalam meningkatkan akurasi analisis sentimen pada algoritma Support Vector Machine (SVM) dengan kernel Radial Basis Function (RBF). Data ulasan dikumpulkan melalui web scraping dari komentar di Google Play untuk tiga aplikasi Fintech, yaitu Flip, Neobank, dan Bank Jago. Tahapan pemrosesan meliputi pelabelan, preprocessing untuk membersihkan data, dan pembobotan kata menggunakan metode TF-IDF (Term Frequency-Inverse Document Frequency). Teknik Random Oversampling diterapkan untuk mengatasi ketidakseimbangan kelas dalam dataset. Hasil penelitian menunjukkan bahwa optimasi parameter dengan PSO mampu meningkatkan kinerja analisis sentimen, dengan peningkatan rata-rata sebesar 11,33% untuk setiap aplikasi. PSO juga meningkatkan akurasi model dalam menghadapi tantangan data tidak seimbang, memberikan wawasan yang lebih dalam bagi pengembang aplikasi untuk meningkatkan layanan.   Abstract Financial technology (Fintech) applications have become part of people\u27s daily lives in the digital era. The convenience and efficiency offered by Fintech applications have attracted millions of users, who actively provide feedback and reviews on platforms such as the Google Play Store. These reviews are an important source of information for application developers to understand user perceptions, identify problems, and improve service quality. The study investigates the effectiveness of the Particle Swarm Optimization (PSO) method for balanced and unbalanced datasets and how well it improves sentiment analysis accuracy when applied to the Support Vector Machine (SVM) algorithm when using Radial Basis Function (RBF) kernel. We conducted web scraping to collect user review data from Google Play for three FinTech applications: Flip, Neobank, and Bank Jago as research objects. Following data collection, the review data underwent preprocessing steps, such as word weighting using the TF-IDF (Term Frequency-Inverse Document Frequency), labeling, and preprocessing to clean the data. Random Oversampling resolved the dataset\u27s class imbalance, making all classes representative in the study. The results of this study indicate that parameter optimization with PSO can improve the performance of sentiment analysis on the subjects studied. Furthermore, based on the results of SVM testing using parameter optimization of the PSO algorithm, an average performance increase of 11.33% was obtained for each application that had been analyzed. The results also show that PSO improves model accuracy in sentiment analysis with imbalanced data challenges, providing deeper insights for application developers to improve services

    Perbandingan Algoritma Stemming Porter, Sastrawi, Idris, Dan Arifin & Setiono Pada Dokumen Teks Bahasa Indonesia

    Get PDF
    Information Retrieval (IR) memiliki fungsi untuk memisahkan dokumen-dokumen yang relevan dari sekumpulan dokumen yang ada. Terdapat sebuah proses penting pada IR, yaitu stemming. Stemming adalah proses untuk mengurangi kata-kata berimbuhan menjadi bentuk kata dasar. Pada beberapa penelitian sering menggunakan stemming yang berbeda-beda, bahkan ada penelitian yang telah mencoba membandingkan dua algoritma stemming. Sedangkan pada penelitian ini membandingkan empat algoritma stemming. Tujuan penelitian ini adalah untuk mengungkapkan pengaruh stemming pada IR menggunakan dokumen bahasa Indonesia. Algoritma stemming yang digunakan pada penelitian ini adalah Porter, Sastrawi, Idris, dan Arifin Setiono. Kinerja masing-masing algoritma stemming diukur berdasarkan nilai presisi dan kebutuhan waktu. Terdapat 120 dokumen berbahasa Indonesia yang digunakan untuk mengukur kinerja masing-masing algoritma. Berdasarkan hasil eksperimen diperoleh bahwa kinerja terbaik untuk presisi adalah stemming Sastrawi. Sedangkan kinerja terbaik dari segi kebutuhan waktu adalah stemming Arifin Setiono. Kinerja presisi masing-masing stemming Sastrawi, Arifin Setiono, Porter, dan Idris adalah 70.3%, 55.8%, 49.9%, dan 32.2%. Sedangkan kinerja kebutuhan waktu rata-rata masing-masing stemming Arifin Setiono, Sastrawi, Idris, dan Porter adalah sebesar 0,123 detik, 160.1 detik, 168.8 detik, dan 188.4 detik.   Abstract Information Retrieval (IR) has the function of separating relevant documents from a set of existing documents. An important process in IR is stemming. Stemming is the process of reducing affixed words into basic word forms. In several studies, different stemming is often used, and even studies have tried to compare two stemming algorithms. In this study, four stemming algorithms were compared. The purpose of this study was to reveal the effect of stemming on IR using Indonesian language documents. The stemming algorithms used in this study were Porter, Sastrawi, Idris, and Arifin Setiono. The performance of each stemming algorithm was measured based on the accuracy value and time requirements. There were 120 Indonesian language documents used to measure the performance of each algorithm. Based on the experimental results, it was obtained that the best performance for precision was the Sastrawi stemming. While the best performance in terms of time requirements was the Arifin Setiono stemming. The precision performance of each stemming of Sastrawi, Arifin Setiono, Porter, and Idris is 70.3%, 55.8%, 49.9%, and 32.2%. Meanwhile, the average time requirement performance of each stemming of Arifin Setiono, Sastrawi, Idris, and Porter is 0.123 sec, 160.1 sec, 168.8 sec, and 188.4 sec.Information Retrieval (IR) memiliki fungsi untuk memisahkan dokumen-dokumen yang relevan dari sekumpulan dokumen yang ada. Terdapat sebuah proses penting pada IR, yaitu stemming. Stemming adalah proses untuk mengurangi kata-kata berimbuhan menjadi bentuk kata dasar. Pada beberapa penelitian sering menggunakan stemming yang berbeda-beda, bahkan ada penelitian yang telah mencoba membandingkan dua algoritma stemming. Sedangkan pada penelitian ini membandingkan empat algoritma stemming. Tujuan penelitian ini adalah untuk mengungkapkan pengaruh stemming pada IR menggunakan dokumen bahasa Indonesia. Algoritma stemming yang digunakan pada penelitian ini adalah Porter, Sastrawi, Idris, dan Arifin Setiono. Kinerja masing-masing algoritma stemming diukur berdasarkan nilai presisi dan kebutuhan waktu. Terdapat 120 dokumen berbahasa Indonesia yang digunakan untuk mengukur kinerja masing-masing algoritma. Berdasarkan hasil eksperimen diperoleh bahwa kinerja terbaik untuk presisi adalah stemming Sastrawi. Sedangkan kinerja terbaik dari segi kebutuhan waktu adalah stemming Arifin Setiono. Kinerja presisi masing-masing stemming Sastrawi, Arifin Setiono, Porter, dan Idris adalah 70.3%, 55.8%, 49.9%, dan 32.2%. Sedangkan kinerja kebutuhan waktu rata-rata masing-masing stemming Arifin Setiono, Sastrawi, Idris, dan Porter adalah sebesar 0,123 detik, 160.1 detik, 168.8 detik, dan 188.4 detik.   Abstract Information Retrieval (IR) has the function of separating relevant documents from a set of existing documents. An important process in IR is stemming. Stemming is the process of reducing affixed words into basic word forms. In several studies, different stemming is often used, and even studies have tried to compare two stemming algorithms. In this study, four stemming algorithms were compared. The purpose of this study was to reveal the effect of stemming on IR using Indonesian language documents. The stemming algorithms used in this study were Porter, Sastrawi, Idris, and Arifin Setiono. The performance of each stemming algorithm was measured based on the accuracy value and time requirements. There were 120 Indonesian language documents used to measure the performance of each algorithm. Based on the experimental results, it was obtained that the best performance for precision was the Sastrawi stemming. While the best performance in terms of time requirements was the Arifin Setiono stemming. The precision performance of each stemming of Sastrawi, Arifin Setiono, Porter, and Idris is 70.3%, 55.8%, 49.9%, and 32.2%. Meanwhile, the average time requirement performance of each stemming of Arifin Setiono, Sastrawi, Idris, and Porter is 0.123 sec, 160.1 sec, 168.8 sec, and 188.4 sec

    Identifikasi Pola Tingkat Kesenjangan Ketuntasan Pendidikan Di Indonesia Dengan Menggunakan Metode K-Medoids Clustering

    Get PDF
    Pendidikan memiliki peran penting dalam pembangunan sosial dan ekonomi, namun masih ada kesenjangan ketuntasan pendidikan antar provinsi di Indonesia. Kesenjangan ini disebabkan oleh perbedaan akses fasilitas, kualitas pengajaran, dan kondisi ekonomi, yang mempengaruhi tingkat ketuntasan pendidikan. Penelitian ini menggunakan metode K-Medoids Clustering untuk mengelompokkan wilayah di Indonesia berdasarkan data ketuntasan pendidikan dari Badan Pusat Statistik Indonesia (BPS) 2018-2023 untuk sebagai pusat Cluster (medoids), dan dipilih karena keunggulannya dalam mengelompokkan data berdasarkan median, yang pada gilirannya membuatnya lebih tahan terhadap pengaruh data outlier. Temuan utama penelitian ini menunjukkan kesenjangan pendidikan tinggi yaitu berada di wilayah Indonesia bagian tengah dan timur yaitu seperti provinsi Nusa Tenggara Timur (NTT) dan provinsi Papua, menjadi refleksi nyata dari keterbatasan akses dan fasilitas pendidikan di wilayah tersebut. Rendahnya tingkat ketuntasan pendidikan pada jenjang SD, SMP, dan SMA turut berdampak pada minimnya angka partisipasi di pendidikan tinggi dan disparitas signifikan dalam ketuntasan pendidikan dengan kondisi seperti ini mencerminkan perlunya kebijakan berbasis data, peningkatan infrastruktur pendidikan, serta program dukungan untuk siswa dan guru guna memperbaiki kesenjangan pendidikan. Wilayah Indonesia bagian barat dengan ketuntasan pendidikan lebih tinggi, seperti Jawa, Sumatra, dan Bali, diharapkan dapat berbagi praktik terbaik untuk mendukung wilayah yang tertinggal.   Abstract Education plays a crucial role in social and economic development; however, there are still significant disparities in educational completion rates across provinces in Indonesia. These disparities are caused by differences in access to facilities, teaching quality, and economic conditions, which affect educational outcomes. This study uses the K-Medoids Clustering method to group regions in Indonesia based on educational attainment data from Statistics Indonesia (BPS) 2018-2023, using this data as the cluster centers (medoids). This method was chosen for its effectiveness in clustering data based on the median, making it more resilient to the influence of outlier data. The main findings of this study reveal significant educational disparities in central and eastern Indonesia, such as in East Nusa Tenggara (NTT) and Papua provinces, reflecting the limited access to and availability of educational facilities in these regions. Low completion rates at the elementary, junior high, and high school levels also affect participation in higher education and significant disparities in educational attainment. This underscores the need for data-driven policies, improved educational infrastructure, and support programs for students and teachers to address educational inequalities. Western regions of Indonesia with higher educational attainment, such as Java, Sumatra, and Bali, are expected to share best practices to support underdeveloped regions.Pendidikan memiliki peran penting dalam pembangunan sosial dan ekonomi, namun masih ada kesenjangan ketuntasan pendidikan antar provinsi di Indonesia. Kesenjangan ini disebabkan oleh perbedaan akses fasilitas, kualitas pengajaran, dan kondisi ekonomi, yang mempengaruhi tingkat ketuntasan pendidikan. Penelitian ini menggunakan metode K-Medoids Clustering untuk mengelompokkan wilayah di Indonesia berdasarkan data ketuntasan pendidikan dari Badan Pusat Statistik Indonesia (BPS) 2018-2023 untuk sebagai pusat Cluster (medoids), dan dipilih karena keunggulannya dalam mengelompokkan data berdasarkan median, yang pada gilirannya membuatnya lebih tahan terhadap pengaruh data outlier. Temuan utama penelitian ini menunjukkan kesenjangan pendidikan tinggi yaitu berada di wilayah Indonesia bagian tengah dan timur yaitu seperti provinsi Nusa Tenggara Timur (NTT) dan provinsi Papua, menjadi refleksi nyata dari keterbatasan akses dan fasilitas pendidikan di wilayah tersebut. Rendahnya tingkat ketuntasan pendidikan pada jenjang SD, SMP, dan SMA turut berdampak pada minimnya angka partisipasi di pendidikan tinggi dan disparitas signifikan dalam ketuntasan pendidikan dengan kondisi seperti ini mencerminkan perlunya kebijakan berbasis data, peningkatan infrastruktur pendidikan, serta program dukungan untuk siswa dan guru guna memperbaiki kesenjangan pendidikan. Wilayah Indonesia bagian barat dengan ketuntasan pendidikan lebih tinggi, seperti Jawa, Sumatra, dan Bali, diharapkan dapat berbagi praktik terbaik untuk mendukung wilayah yang tertinggal.   Abstract Education plays a crucial role in social and economic development; however, there are still significant disparities in educational completion rates across provinces in Indonesia. These disparities are caused by differences in access to facilities, teaching quality, and economic conditions, which affect educational outcomes. This study uses the K-Medoids Clustering method to group regions in Indonesia based on educational attainment data from Statistics Indonesia (BPS) 2018-2023, using this data as the cluster centers (medoids). This method was chosen for its effectiveness in clustering data based on the median, making it more resilient to the influence of outlier data. The main findings of this study reveal significant educational disparities in central and eastern Indonesia, such as in East Nusa Tenggara (NTT) and Papua provinces, reflecting the limited access to and availability of educational facilities in these regions. Low completion rates at the elementary, junior high, and high school levels also affect participation in higher education and significant disparities in educational attainment. This underscores the need for data-driven policies, improved educational infrastructure, and support programs for students and teachers to address educational inequalities. Western regions of Indonesia with higher educational attainment, such as Java, Sumatra, and Bali, are expected to share best practices to support underdeveloped regions

    Penerapan Model Algoritma Unsupervised Learning untuk Klasterisasi Tingkat Kenyamanan Ruang Tidur berdasarkan Faktor Lingkungan

    Get PDF
    Pada era revolusi industri 4.0, teknologi seperti cloud computing, robotic, internet of things(IoT), artificial intelligence (AI) dan machine learning (ML) sangat banyak dikembangkan di berbagai sektor seperti industri, pemerintahan, pendidikan hingga ke sektor rumah tangga. Salah satu teknologi yang banyak digunakan di era revolusi industri 4.0 ini adalah AI atau ML. Pada penelitian ini telah berhasil menerapkan sebuah pengolahan data secara klasterisasi menggunakan model ML yaitu unsupervised learning menggunakan algoritma k-means clustering terhadap data yang sudah dikumpulkan. Data tersebut berupa data kuantitaif lingkungan ruang tidur yang dapat diukur, data tersebut diukur dan diambil menggunakan perangkat yang memiliki 5 sensor, yaitu sensor suara, cahaya, temperature, humidity, karbon dioksida (CO2), data nilai panjang, data nilai lebar serta, nilai cuaca yang diambil pada platform OpenWheater menggunakan perangkat yang dibangun berbasis IoT menggunakan koneksi internet dari sebuah access point. Data yang dikumpulkan menjadi sebuah dataset yang diolah menggunakan model algoritma k-means clustering sehingga dapat digunakan untuk melakukan klasterisasi terhadap kenyamanan ruang tidur. Dari hasil pengolahan menggunakan model algoritma k-means clustering terdapat nilai Silhouette sebesar 0,268 dengan persentase data per klaster adalah 29,92%% untuk klaster 0 (tidak nyaman) dan 70,08% untuk klaster 1 (nyaman). Dalam praktik nyata, temuan dari hasil penerapan penelitian ini dapat digunakan untuk mengembangkan rekomendasi personalisasi untuk pengaturan ruang tidur, nantinya dapat merancang produk atau desain yang lebih efektif, di mana penerapan ML dapat dibenamkan secara langsung dalam sebuah sistem yang utuh. Dampaknya bisa sangat luas, mencakup peningkatan kesehatan, produktivitas, dan kesejahteraan penggunanya.   Abstract In the era of Industry 4.0, technologies such as cloud computing, robotics, the Internet of Things (IoT), artificial intelligence (AI), and machine learning (ML) have been extensively developed across various sectors, including industry, government, education, and even households. One of the technologies widely used in this era is AI and ML. This research successfully applied clustered data processing using the ML model, specifically unsupervised learning with the k-means clustering algorithm, to the collected data. The data consists of quantitative measurements of the bedroom environment, gathered using a device with 5 sensors: sound, light, temperature, humidity, carbon dioxide (CO2), as well as length, width, and weather data taken from the OpenWeather platform using an IoT-based device with an internet connection from an access point. The collected data forms a dataset that is processed using the k-means clustering algorithm to classify the comfort level of the bedroom. The results of this processing showed a Silhouette value of 0.268, with the percentage of data per cluster being 29.92% for cluster 0 (uncomfortable) and 70.08% for cluster 1 (comfortable). In real practice, the findings from this research can be used to develop personalized recommendations for bedroom arrangements and to design more effective products. The application of ML can be embedded directly into a complete system, with far-reaching impacts, including improving users\u27 health, productivity, and well-being.Pada era revolusi industri 4.0, teknologi seperti cloud computing, robotic, internet of things(IoT), artificial intelligence (AI) dan machine learning (ML) sangat banyak dikembangkan di berbagai sektor seperti industri, pemerintahan, pendidikan hingga ke sektor rumah tangga. Salah satu teknologi yang banyak digunakan di era revolusi industri 4.0 ini adalah AI atau ML. Pada penelitian ini telah berhasil menerapkan sebuah pengolahan data secara klasterisasi menggunakan model ML yaitu unsupervised learning menggunakan algoritma k-means clustering terhadap data yang sudah dikumpulkan. Data tersebut berupa data kuantitaif lingkungan ruang tidur yang dapat diukur, data tersebut diukur dan diambil menggunakan perangkat yang memiliki 5 sensor, yaitu sensor suara, cahaya, temperature, humidity, karbon dioksida (CO2), data nilai panjang, data nilai lebar serta, nilai cuaca yang diambil pada platform OpenWheater menggunakan perangkat yang dibangun berbasis IoT menggunakan koneksi internet dari sebuah access point. Data yang dikumpulkan menjadi sebuah dataset yang diolah menggunakan model algoritma k-means clustering sehingga dapat digunakan untuk melakukan klasterisasi terhadap kenyamanan ruang tidur. Dari hasil pengolahan menggunakan model algoritma k-means clustering terdapat nilai Silhouette sebesar 0,268 dengan persentase data per klaster adalah 29,92%% untuk klaster 0 (tidak nyaman) dan 70,08% untuk klaster 1 (nyaman). Dalam praktik nyata, temuan dari hasil penerapan penelitian ini dapat digunakan untuk mengembangkan rekomendasi personalisasi untuk pengaturan ruang tidur, nantinya dapat merancang produk atau desain yang lebih efektif, di mana penerapan ML dapat dibenamkan secara langsung dalam sebuah sistem yang utuh. Dampaknya bisa sangat luas, mencakup peningkatan kesehatan, produktivitas, dan kesejahteraan penggunanya.   Abstract In the era of Industry 4.0, technologies such as cloud computing, robotics, the Internet of Things (IoT), artificial intelligence (AI), and machine learning (ML) have been extensively developed across various sectors, including industry, government, education, and even households. One of the technologies widely used in this era is AI and ML. This research successfully applied clustered data processing using the ML model, specifically unsupervised learning with the k-means clustering algorithm, to the collected data. The data consists of quantitative measurements of the bedroom environment, gathered using a device with 5 sensors: sound, light, temperature, humidity, carbon dioxide (CO2), as well as length, width, and weather data taken from the OpenWeather platform using an IoT-based device with an internet connection from an access point. The collected data forms a dataset that is processed using the k-means clustering algorithm to classify the comfort level of the bedroom. The results of this processing showed a Silhouette value of 0.268, with the percentage of data per cluster being 29.92% for cluster 0 (uncomfortable) and 70.08% for cluster 1 (comfortable). In real practice, the findings from this research can be used to develop personalized recommendations for bedroom arrangements and to design more effective products. The application of ML can be embedded directly into a complete system, with far-reaching impacts, including improving users\u27 health, productivity, and well-being

    Analisis Pengolahan Ekstraksi Fitur Citra Untuk Klasifikasi Jenis Apel Menggunakan Scikit-Learn Dengan Algoritma K-Nearest Neighbor

    Get PDF
    Jenis Apel di Indonesia makin beragam seiring dengan perkembangan teknologi dibidang perkebunan.apel yang berkembang pesat. Penggunaan teknologi pengolahan citra dan pembelajaran mesin telah membuka peluang baru dalam mengatasi tantangan klasifikasi objek berbasis citra, termasuk dalam mengidentifikasi jenis buah apel.Penggunaan metode K-Nearest Neighbor sudah banyak terbukti dalam klasifikasi berbagai jenis data termasuk citra. Penelitian yang akan dilakukan akan mencoba melakukan analisa dan mengklasifikasikan jenis apel dengan membaca extrasi fitur citra menggunakan library scikit-learn dalam bahasa pemrograman Python dengan pendekatan algoritma K-Nearest Neighbor. Dataset yang akan diteli dalam klasifikasi digunakan 7 jenis apel yaitu Apple Braeburn, Apple Crimson Snow, Apple Golden, Apple Granny Smith, Apple Red , Apple Red Delicious, Apple Red Yellow. Dataset training yang digunakan dalam penelitian sebanyak 16404 citra, sedangkan data testing sebanyak 2134 citra apel.  Proses klasifikasi dilakukan dengan membandingkan extrasi fitur dari apel yang belum diketahui varietasnya dengan fitur-fitur dari apel yang telah diklasifikasikan sebelumnya.extrasi fiture yang akan dilakukan yaitu akan membandingkandan dari hasil extrasi fiture HVS, histogram dan RGB yang dipilih dengan nilai k genap. Hasil penelitian yang dilakukan menghasilkan akurasi tertinggi sebesar 96,9 %, dengan nilai k=2 dan kriteria perhitungan jarak menggunakan extraksi fitur menggunakan RGB,HSV dan histogram. Penelitian ini diharapkan mampu memberikan potensi penggunaan teknik pengolahan citra dalam mendukung identifikasi jenis apel secara otomatis, yang relevan dalam industri pertanian dan pengolahan makanan. Penelitian selanjutnya diharapkan dapat dilakukan dengan membandingkan metode algoritma untuk klasifikasi yang lain serta memberikan dataset image dengan pencahayaan yang berbeda dengan menambah beberapa jenis apel  dan kombinasi parameter yang lebih banyak lagi agar dapat meningkatkan output hasil penelitian yang sudah dilakukan.   Abstract Apple types in Indonesia are increasingly diverse along with the rapid development of technology in the field of apple plantations. The use of image processing and machine learning technology has opened up new opportunities in overcoming the challenges of image-based object classification, including in identifying apple types. The use of the K-Nearest Neighbor method has been widely proven in the classification of various types of data including images. The research that will be conducted will try to analyze and classify apple types by reading image feature extraction using the scikit-learn library in the Python programming language with the K-Nearest Neighbor algorithm approach. The dataset that will be studied in the classification uses 7 types of apples, namely Apple Braeburn, Apple Crimson Snow, Apple Golden, Apple Granny Smith, Apple Red, Apple Red Delicious, Apple Red Yellow. The training dataset used in the study was 16404 images, while the testing data was 2134 apple images. The classification process is carried out by comparing feature extraction from apples whose varieties are unknown with features from apples that have been previously classified. The feature extraction that will be carried out is to compare and from the results of the HVS, histogram and RGB feature extraction selected with an even k value. The results of the research conducted produced the highest accuracy of 96.9%, with a value of k = 2 and the distance calculation criteria using feature extraction using RGB, HSV and histograms. This research is expected to provide the potential for using image processing techniques to support automatic identification of apple types, which are relevant in the agricultural and food processing industries. Further research is expected to be carried out by comparing algorithm methods for other classifications and providing image datasets with different lighting by adding several types of apples and more parameter combinations in order to increase the output of the research results that have been carried out.Jenis Apel di Indonesia makin beragam seiring dengan perkembangan teknologi dibidang perkebunan.apel yang berkembang pesat. Penggunaan teknologi pengolahan citra dan pembelajaran mesin telah membuka peluang baru dalam mengatasi tantangan klasifikasi objek berbasis citra, termasuk dalam mengidentifikasi jenis buah apel.Penggunaan metode K-Nearest Neighbor sudah banyak terbukti dalam klasifikasi berbagai jenis data termasuk citra. Penelitian yang akan dilakukan akan mencoba melakukan analisa dan mengklasifikasikan jenis apel dengan membaca extrasi fitur citra menggunakan library scikit-learn dalam bahasa pemrograman Python dengan pendekatan algoritma K-Nearest Neighbor. Dataset yang akan diteli dalam klasifikasi digunakan 7 jenis apel yaitu Apple Braeburn, Apple Crimson Snow, Apple Golden, Apple Granny Smith, Apple Red , Apple Red Delicious, Apple Red Yellow. Dataset training yang digunakan dalam penelitian sebanyak 16404 citra, sedangkan data testing sebanyak 2134 citra apel.  Proses klasifikasi dilakukan dengan membandingkan extrasi fitur dari apel yang belum diketahui varietasnya dengan fitur-fitur dari apel yang telah diklasifikasikan sebelumnya.extrasi fiture yang akan dilakukan yaitu akan membandingkandan dari hasil extrasi fiture HVS, histogram dan RGB yang dipilih dengan nilai k genap. Hasil penelitian yang dilakukan menghasilkan akurasi tertinggi sebesar 96,9 %, dengan nilai k=2 dan kriteria perhitungan jarak menggunakan extraksi fitur menggunakan RGB,HSV dan histogram. Penelitian ini diharapkan mampu memberikan potensi penggunaan teknik pengolahan citra dalam mendukung identifikasi jenis apel secara otomatis, yang relevan dalam industri pertanian dan pengolahan makanan. Penelitian selanjutnya diharapkan dapat dilakukan dengan membandingkan metode algoritma untuk klasifikasi yang lain serta memberikan dataset image dengan pencahayaan yang berbeda dengan menambah beberapa jenis apel  dan kombinasi parameter yang lebih banyak lagi agar dapat meningkatkan output hasil penelitian yang sudah dilakukan.   Abstract Apple types in Indonesia are increasingly diverse along with the rapid development of technology in the field of apple plantations. The use of image processing and machine learning technology has opened up new opportunities in overcoming the challenges of image-based object classification, including in identifying apple types. The use of the K-Nearest Neighbor method has been widely proven in the classification of various types of data including images. The research that will be conducted will try to analyze and classify apple types by reading image feature extraction using the scikit-learn library in the Python programming language with the K-Nearest Neighbor algorithm approach. The dataset that will be studied in the classification uses 7 types of apples, namely Apple Braeburn, Apple Crimson Snow, Apple Golden, Apple Granny Smith, Apple Red, Apple Red Delicious, Apple Red Yellow. The training dataset used in the study was 16404 images, while the testing data was 2134 apple images. The classification process is carried out by comparing feature extraction from apples whose varieties are unknown with features from apples that have been previously classified. The feature extraction that will be carried out is to compare and from the results of the HVS, histogram and RGB feature extraction selected with an even k value. The results of the research conducted produced the highest accuracy of 96.9%, with a value of k = 2 and the distance calculation criteria using feature extraction using RGB, HSV and histograms. This research is expected to provide the potential for using image processing techniques to support automatic identification of apple types, which are relevant in the agricultural and food processing industries. Further research is expected to be carried out by comparing algorithm methods for other classifications and providing image datasets with different lighting by adding several types of apples and more parameter combinations in order to increase the output of the research results that have been carried out

    Peningkatan Kualitas Layanan Jaringan Restoran Cepat Saji Indonesia: Analisis Sentimen dan Emosi Berbasis Aspek

    Get PDF
    Kehadiran restoran cepat saji telah mempengaruhi pola makan masyarakat khususnya perkotaan karena ketersediaannya yang mudah dan variasinya. Penelitian ini bertujuan menganalisis preferensi konsumen terhadap restoran cepat saji di Indonesia dengan menggunakan analisis sentimen dan emosi berbasis aspek. Data penelitian diperoleh dari ulasan Google Review dan kuesioner dari 100 responden. Proses analisis meliputi pembersihan data, pembobotan TF-IDF, dan pemisahan data menjadi set pelatihan dan pengujian. Analisis sentimen berbasis aspek digunakan untuk mengidentifikasi sentimen positif dan negatif berbagai aspek layanan, sementara analisis emosi untuk mengukur jenis dan tingkat emosi pelanggan berdasarkan sentimen yang terdeteksi. Hasil visualisasi menunjukkan berbagai sentimen dan emosi yang terkait dengan setiap aspek atribut layanan restoran. Model Importance Performance Analysis (IPA) tiga dimensi digunakan untuk mengevaluasi hubungan antara tingkat kepentingan dan kepuasan hasil sentimen dan emosi pelanggan. Hasil analisis sentimen berbasis aspek menunjukkan bahwa sebagian besar restoran mendapat sentimen positif pada semua aspek. Pada hasil analisis emosi terlihat bahwa pada setiap sentimen positif akan selaras dengan emosi yang positif dan begitu sebaliknya. Temuan dalam penelitian ini diharapkan dapat memberikan wawasan berharga bagi para pengelola restoran untuk meningkatkan pengalaman pelanggan melalui pemahaman mendalam tentang sentimen dan emosi pelanggan.   Abstract The presence of fast food restaurants has influenced people\u27s diets, especially in urban areas, due to their readily availability and variety. This study aims to analyze consumer preferences for fast food restaurants in Indonesia using aspect-based sentiment and emotion analysis. The research data was obtained from Google reviews and questionnaires distributed to 100 respondents. The analysis process includes data cleaning, TF-IDF weighting, and data separation into training and testing sets. Aspect-based sentiment analysis was used to identify positive and negative sentiments on various aspects of the service, while emotion analysis was applied to measure the types and levels of customer emotions based on the detected sentiments. The visualization results show the various sentiments and emotions associated with each aspect of the restaurant\u27s service attributes. In addition, this study used a three-dimensional Importance Performance Analysis (IPA) model to evaluate the relationship between importance and satisfaction levels based on customer sentiments and emotions.  The results of aspect-based sentiment analysis show that most restaurants get positive sentiments on all aspects. The emotion analysis results demonstrate a correlation between any positive sentiment and positive emotions, and vice versa. The findings in this study are expected to provide valuable insights for restaurant managers to improve customer experience through an in-depth understanding of customer sentiments and emotions.Kehadiran restoran cepat saji telah mempengaruhi pola makan masyarakat khususnya perkotaan karena ketersediaannya yang mudah dan variasinya. Penelitian ini bertujuan menganalisis preferensi konsumen terhadap restoran cepat saji di Indonesia dengan menggunakan analisis sentimen dan emosi berbasis aspek. Data penelitian diperoleh dari ulasan Google Review dan kuesioner dari 100 responden. Proses analisis meliputi pembersihan data, pembobotan TF-IDF, dan pemisahan data menjadi set pelatihan dan pengujian. Analisis sentimen berbasis aspek digunakan untuk mengidentifikasi sentimen positif dan negatif berbagai aspek layanan, sementara analisis emosi untuk mengukur jenis dan tingkat emosi pelanggan berdasarkan sentimen yang terdeteksi. Hasil visualisasi menunjukkan berbagai sentimen dan emosi yang terkait dengan setiap aspek atribut layanan restoran. Model Importance Performance Analysis (IPA) tiga dimensi digunakan untuk mengevaluasi hubungan antara tingkat kepentingan dan kepuasan hasil sentimen dan emosi pelanggan. Hasil analisis sentimen berbasis aspek menunjukkan bahwa sebagian besar restoran mendapat sentimen positif pada semua aspek. Pada hasil analisis emosi terlihat bahwa pada setiap sentimen positif akan selaras dengan emosi yang positif dan begitu sebaliknya. Temuan dalam penelitian ini diharapkan dapat memberikan wawasan berharga bagi para pengelola restoran untuk meningkatkan pengalaman pelanggan melalui pemahaman mendalam tentang sentimen dan emosi pelanggan.   Abstract The presence of fast food restaurants has influenced people\u27s diets, especially in urban areas, due to their readily availability and variety. This study aims to analyze consumer preferences for fast food restaurants in Indonesia using aspect-based sentiment and emotion analysis. The research data was obtained from Google reviews and questionnaires distributed to 100 respondents. The analysis process includes data cleaning, TF-IDF weighting, and data separation into training and testing sets. Aspect-based sentiment analysis was used to identify positive and negative sentiments on various aspects of the service, while emotion analysis was applied to measure the types and levels of customer emotions based on the detected sentiments. The visualization results show the various sentiments and emotions associated with each aspect of the restaurant\u27s service attributes. In addition, this study used a three-dimensional Importance Performance Analysis (IPA) model to evaluate the relationship between importance and satisfaction levels based on customer sentiments and emotions.  The results of aspect-based sentiment analysis show that most restaurants get positive sentiments on all aspects. The emotion analysis results demonstrate a correlation between any positive sentiment and positive emotions, and vice versa. The findings in this study are expected to provide valuable insights for restaurant managers to improve customer experience through an in-depth understanding of customer sentiments and emotions

    Deteksi Objek Pada Framework Yolov5 Dengan Penanganan Kesilauan Cahaya Menggunakan Gabungan Arsitektur U-Net Dan Inpaint

    Get PDF
    CCTV telah diterapkan untuk memantau berbagai aktivitas di lingkungan Universitas Brawijaya, termasuk lalu lintas kendaraan di gerbang kampus. Pengawasan pada malam hari dalam kondisi intensitas cahaya yang rendah  merupakan tantangan tersendiri dalam penggunaan CCTV. Hal ini dikarenakan kualitas gambar yang rendah sehingga menghambat kemampuan sistem untuk mendeteksi dan mengidentifikasi objek dengan tepat. Salah satu permasalahan yang timbul dalam kasus kurangnya pencahayaan adalah munculnya flare atau kesilauan yang disebabkan oleh lampu kendaraan yang mengarah langsung ke CCTV. Oleh karena itu, pada penelitian ini digunakan segmentasi U-Net dan restorasi inpaint untuk preproses data sebelum dilakukan deteksi objek menggunakan framework YOLOv5. Hasil pengujian deteksi objek diperoleh nilai precision 0.942, recall 0.873, dan F1-Score 0.88 pada model yang dipreproses menggunakan segmentasi U-Net dan restorasi inpaint. Nilai tersebut lebih tinggi sebesar 0.032 pada precision, 0.018 pada recall, dan 0.3 pada F1-Score jika dibandingkan dengan model yang tanpa preproses.­­   Abstract CCTV has been implemented to monitor various activities within Brawijaya University, including vehicle traffic at the campus gate. Surveillance at night in low light intensity conditions is a challenge in the use of CCTV. This is due to the low image quality that hampers the system\u27s ability to detect and identify objects correctly. One of the problems that arise in the case of lack of lighting is the appearance of flares or glare caused by vehicle lights that point directly to the CCTV. Therefore, in this research, U-Net segmentation and inpaint restoration are used to preprocess data before object detection using the YOLOv5 framework. The results of object detection testing obtained precision values of 0.942, recall 0.873, and F1-Score 0.88 on models preprocessed using U-Net segmentation and inpaint restoration. These values are higher by 0.032 in precision, 0.018 in recall, and 0.3 in F1-Score when compared to the model without preprocessing.  CCTV telah diterapkan untuk memantau berbagai aktivitas di lingkungan Universitas Brawijaya, termasuk lalu lintas kendaraan di gerbang kampus. Pengawasan pada malam hari dalam kondisi intensitas cahaya yang rendah  merupakan tantangan tersendiri dalam penggunaan CCTV. Hal ini dikarenakan kualitas gambar yang rendah sehingga menghambat kemampuan sistem untuk mendeteksi dan mengidentifikasi objek dengan tepat. Salah satu permasalahan yang timbul dalam kasus kurangnya pencahayaan adalah munculnya flare atau kesilauan yang disebabkan oleh lampu kendaraan yang mengarah langsung ke CCTV. Oleh karena itu, pada penelitian ini digunakan segmentasi U-Net dan restorasi inpaint untuk preproses data sebelum dilakukan deteksi objek menggunakan framework YOLOv5. Hasil pengujian deteksi objek diperoleh nilai precission 0.942, recall 0.873, dan F1-Score 0.88 pada model yang dipreproses menggunakan segmentasi U-Net dan restorasi inpaint. Nilai tersebut lebih tinggi sebesar 0.032 pada precision, 0.018 pada recall, dan 0.3 pada F1-Score jika dibandingkan dengan model yang tanpa preproses.­

    Implementasi Load Balancing pada Cluster Server Berbasis Raspberry Pi Memanfaatkan Algoritma Least Connection

    Get PDF
    Keterbatasan sumber daya dalam implementasi server menjadi salah satu aspek yang perlu diperhatikan. Penggunaan Raspberry Pi, yang merupakan sebuah perangkat dengan ukuran kecil dan dapat digunakan sebagai server fisik dengan konsumsi sumber daya rendah, menjadi salah satu solusi. Namun, untuk menghindari overload pada server fisik Raspberry Pi, penggunaan cluster server sebagai pemerataan beban kerja dari satu server ke server lainnya menjadi relevan. Cluster server menggunakan Docker swarm memungkinkan pengaturan yang lebih mudah dan efisien dari banyak node dalam sebuah cluster. Pemerataan beban kerja menggunakan load balancing dengan algoritma Least Connection. Algoritma Least Connection berjalan berdasarkan antrian paling sedikit, ketika antrian di suatu node rendah, node tersebut akan menerima beban kerja baru, sehingga mencegah overload pada satu node sementara node lainnya masih memiliki kapasitas yang tersedia. Pendistribusian image ke setiap node dalam cluster dilakukan dengan menggunakan Ansible untuk memastikan pengelolaan konfigurasi yang konsisten dan otomatis di seluruh node. Secara umum, penelitian ini mengintegrasikan tiga teknologi utama, yaitu Docker untuk manajemen kontainer, Ansible untuk manajemen konfigurasi, dan load balancing dengan algoritma Least Connection. Perancangan dan implementasi penelitian difokuskan pada penerapan dan optimalisasi masing-masing teknologi ini. Hasil pengujian penelitian menunjukkan bahwa ansible efektif dalam mempermudah pengelolaan konfigurasi dan otomatisasi distribusi image di seluruh node dalam kluster. Sementara itu, load balancing dengan algoritma Least Connection berhasil membagi beban kerja secara optimal berdasarkan antrian atau koneksi terendah, yang secara signifikan meningkatkan responsivitas dan efisiensi sistem secara keseluruhan.   Abstract Limited resources in server implementation is one aspect that needs to be considered. The use of Raspberry Pi, which is a device with a small size and can be used as a physical server with low resource consumption, is one solution. However, to avoid overloading the Raspberry Pi physical server, the use of a server cluster as an equalization of workload from one server to another becomes relevant. Cluster servers using Docker swarm allow easier and more efficient organization of many nodes in a cluster. Workload equalization uses load balancing with the Least Connection algorithm. The Least Connection algorithm runs based on the least queue, when the queue at a node is low, the node will receive a new workload, thus preventing overload on one node while other nodes still have available capacity. Image distribution to each node in the cluster is done using Ansible to ensure consistent and automated configuration management across nodes. In general, this research integrates three main technologies, namely Docker for container management, Ansible for configuration management, and load balancing with the Least Connection algorithm. The design and implementation of the research focused on the application and optimization of each of these technologies. The test results show that Ansible is effective in simplifying configuration management and automating image distribution across all nodes in the cluster. Meanwhile, load balancing with the Least Connection algorithm successfully divides the workload optimally based on the lowest queue or connection, which significantly improves overall system responsiveness and efficiency.Keterbatasan sumber daya dalam implementasi server menjadi salah satu aspek yang perlu diperhatikan. Penggunaan Raspberry Pi, yang merupakan sebuah perangkat dengan ukuran kecil dan dapat digunakan sebagai server fisik dengan konsumsi sumber daya rendah, menjadi salah satu solusi. Namun, untuk menghindari overload pada server fisik Raspberry Pi, penggunaan cluster server sebagai pemerataan beban kerja dari satu server ke server lainnya menjadi relevan. Cluster server menggunakan Docker swarm memungkinkan pengaturan yang lebih mudah dan efisien dari banyak node dalam sebuah cluster. Pemerataan beban kerja menggunakan load balancing dengan algoritma Least Connection. Algoritma Least Connection berjalan berdasarkan antrian paling sedikit, ketika antrian di suatu node rendah, node tersebut akan menerima beban kerja baru, sehingga mencegah overload pada satu node sementara node lainnya masih memiliki kapasitas yang tersedia. Pendistribusian image ke setiap node dalam cluster dilakukan dengan menggunakan Ansible untuk memastikan pengelolaan konfigurasi yang konsisten dan otomatis di seluruh node. Secara umum, penelitian ini mengintegrasikan tiga teknologi utama, yaitu Docker untuk manajemen kontainer, Ansible untuk manajemen konfigurasi, dan load balancing dengan algoritma Least Connection. Perancangan dan implementasi penelitian difokuskan pada penerapan dan optimalisasi masing-masing teknologi ini. Hasil pengujian penelitian menunjukkan bahwa ansible efektif dalam mempermudah pengelolaan konfigurasi dan otomatisasi distribusi image di seluruh node dalam kluster. Sementara itu, load balancing dengan algoritma Least Connection berhasil membagi beban kerja secara optimal berdasarkan antrian atau koneksi terendah, yang secara signifikan meningkatkan responsivitas dan efisiensi sistem secara keseluruhan.   Abstract Limited resources in server implementation is one aspect that needs to be considered. The use of Raspberry Pi, which is a device with a small size and can be used as a physical server with low resource consumption, is one solution. However, to avoid overloading the Raspberry Pi physical server, the use of a server cluster as an equalization of workload from one server to another becomes relevant. Cluster servers using Docker swarm allow easier and more efficient organization of many nodes in a cluster. Workload equalization uses load balancing with the Least Connection algorithm. The Least Connection algorithm runs based on the least queue, when the queue at a node is low, the node will receive a new workload, thus preventing overload on one node while other nodes still have available capacity. Image distribution to each node in the cluster is done using Ansible to ensure consistent and automated configuration management across nodes. In general, this research integrates three main technologies, namely Docker for container management, Ansible for configuration management, and load balancing with the Least Connection algorithm. The design and implementation of the research focused on the application and optimization of each of these technologies. The test results show that Ansible is effective in simplifying configuration management and automating image distribution across all nodes in the cluster. Meanwhile, load balancing with the Least Connection algorithm successfully divides the workload optimally based on the lowest queue or connection, which significantly improves overall system responsiveness and efficiency

    Penerapan Teori Meaningful Learning Pada Pengembangan Media Pembelajaran Kit-Build Concept Map Berbasis Knowledge Reconstruction Dengan Sistem Evaluasi dan Feedback Otomatis

    Get PDF
    Penelitian ini mengusulkan penerapan atas teori knowledge reconstruction dan teori meaningful learning Ausubel pada kerangka pembelajaran yang menggunakan peta konsep digital Kit-Build concept map. Melalui penerapan kerangka pembelajaran yang diusulkan, siswa mengidentifikasi sumber-sumber pengetahuan untuk disusun dengan menghubungkan pengetahuan dan pengalaman yang telah dimiliki sebelumnya dan mengintegrasikan pengetahuan baru yang telah disusun ke dalam pemahaman kognitif mereka dengan menggunakan media pembelajaran peta konsep digital Kit-Build. Penelitian ini juga mengusulkan penerapan sebuah mekanisme feed-back otomatis yang dapat diberikan ketika peta konsep Kit-Build direkonstruksi pebelajar. Mekanisme feedback otomatis yang diberikan kepada siswa didasarkan atas permasalahan sulitnya memberikan masukan pada siswa saat rekonstruksi peta konsep Kit-Build dilakukan serta kesulitan siswa dalam memahami banyaknya pengetahuan baru yang terkandung dalam sebuah peta konsep. Fenomena information overload dapat terjadi saat siswa merekonstruksi peta konsep yang berukuran besar sebagai akibat dari banyaknya komponen Kit-Build dalam sebuah peta konsep yang perlu direkonstruksi. Pendekatan pembelajaran yang diusulkan dalam penelitian ini diuji dalam sebuah eksperimen dalam aktivitas belajar yang menggunakan media pembelajaran peta konsep Kit-Build, di mana rekonstruksi peta konsep dilakukan secara bertahap sebagai bentuk penerapan teori meaningful learning Ausubel. Pengaruh penerapan teori terhadap pemahaman siswa serta efisiensi proses belajar siswa melalui rekonstruksi peta konsep digital Kit-Build diinvestigasi dalam penelitian ini. Hasil analisis memperlihatkan bahwa teori meaningful learning yang diterapkan dalam proses pembelajaran menggunakan peta konsep Kit-Bulid secara efektif mampu meningkatkan pemahaman siswa serta mampu meningkatkan efisiensi aktivitas pembelajaran dengan kerangka pembelajaran yang dilakukan.   Abstract This research proposes the application of knowledge reconstruction theory and Ausubel\u27s meaningful learning theory within a learning framework that utilizes the Kit-Build concept map. Under the proposed learning framework, students identify knowledge sources to be organized by linking their prior knowledge and experiences, and integrating the newly organized knowledge into their cognitive understanding using the Kit-Build concept map. This research also implements an automated feedback system during learner’s concept map reconstruction. The automatic feedback mechanism provided to students due to the difficulty of providing input to students during the concept map reconstruction and the difficulty of understanding the learning material when information overload occurs. Information overload may occur when students reconstruct large concept maps where numerous Kit-Build concept map components have to be reconstructed manually. The learning method proposed in this research is evaluated in an experiment involving the Kit-Build concept map framework, where concept map reconstruction is carried out in stages as a form of applying Ausubel’s meaningful learning theory. The effect of applying such theory on students\u27 understanding as well as the efficiency of students\u27 learning process through concept map reconstruction was investigated in this study. The analysis results suggested that applying meaningful learning theory in the learning process using Kit-Bulid concept map could effectively improve students\u27 understanding and also improve the efficiency of learning activities with Kit-Build concept map framework.Penelitian ini mengusulkan penerapan atas teori knowledge reconstruction dan teori meaningful learning Ausubel pada kerangka pembelajaran yang menggunakan peta konsep digital Kit-Build concept map. Melalui penerapan kerangka pembelajaran yang diusulkan, siswa mengidentifikasi sumber-sumber pengetahuan untuk disusun dengan menghubungkan pengetahuan dan pengalaman yang telah dimiliki sebelumnya dan mengintegrasikan pengetahuan baru yang telah disusun ke dalam pemahaman kognitif mereka dengan menggunakan media pembelajaran peta konsep digital Kit-Build. Penelitian ini juga mengusulkan penerapan sebuah mekanisme feed-back otomatis yang dapat diberikan ketika peta konsep Kit-Build direkonstruksi pebelajar. Mekanisme feedback otomatis yang diberikan kepada siswa didasarkan atas permasalahan sulitnya memberikan masukan pada siswa saat rekonstruksi peta konsep Kit-Build dilakukan serta kesulitan siswa dalam memahami banyaknya pengetahuan baru yang terkandung dalam sebuah peta konsep. Fenomena information overload dapat terjadi saat siswa merekonstruksi peta konsep yang berukuran besar sebagai akibat dari banyaknya komponen Kit-Build dalam sebuah peta konsep yang perlu direkonstruksi. Pendekatan pembelajaran yang diusulkan dalam penelitian ini diuji dalam sebuah eksperimen dalam aktivitas belajar yang menggunakan media pembelajaran peta konsep Kit-Build, di mana rekonstruksi peta konsep dilakukan secara bertahap sebagai bentuk penerapan teori meaningful learning Ausubel. Pengaruh penerapan teori terhadap pemahaman siswa serta efisiensi proses belajar siswa melalui rekonstruksi peta konsep digital Kit-Build diinvestigasi dalam penelitian ini. Hasil analisis memperlihatkan bahwa teori meaningful learning yang diterapkan dalam proses pembelajaran menggunakan peta konsep Kit-Bulid secara efektif mampu meningkatkan pemahaman siswa serta mampu meningkatkan efisiensi aktivitas pembelajaran dengan kerangka pembelajaran yang dilakukan.   Abstract This research proposes the application of knowledge reconstruction theory and Ausubel\u27s meaningful learning theory within a learning framework that utilizes the Kit-Build concept map. Under the proposed learning framework, students identify knowledge sources to be organized by linking their prior knowledge and experiences, and integrating the newly organized knowledge into their cognitive understanding using the Kit-Build concept map. This research also implements an automated feedback system during learner’s concept map reconstruction. The automatic feedback mechanism provided to students due to the difficulty of providing input to students during the concept map reconstruction and the difficulty of understanding the learning material when information overload occurs. Information overload may occur when students reconstruct large concept maps where numerous Kit-Build concept map components have to be reconstructed manually. The learning method proposed in this research is evaluated in an experiment involving the Kit-Build concept map framework, where concept map reconstruction is carried out in stages as a form of applying Ausubel’s meaningful learning theory. The effect of applying such theory on students\u27 understanding as well as the efficiency of students\u27 learning process through concept map reconstruction was investigated in this study. The analysis results suggested that applying meaningful learning theory in the learning process using Kit-Bulid concept map could effectively improve students\u27 understanding and also improve the efficiency of learning activities with Kit-Build concept map framework

    1,132

    full texts

    1,240

    metadata records
    Updated in last 30 days.
    Jurnal Teknologi Informasi dan Ilmu Komputer
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇