2 research outputs found

    IMPLEMENTASI BIDIRECTIONAL ENCODER REPRESENTATIONS FROM TRANSFORMERS (BERT) UNTUK MENDETEKSI HATESPEECH DAN ABUSIVE LANGUAGE PADA TWITTER BAHASA INDONESIA

    Get PDF
    Ujaran kebencian dan bahasa kasar di media sosial merupakan salah satu penyebab terjadinya konflik di masyarakat. Terdapatnya ujaran kebencian dan bahasa kasar pada media sosial dikarenakan pada media sosial pengguna dapat dengan bebas untuk menyampaikan pendapatnya, oleh karena itu konten ujaran kebencian dan bahasa kasar pada media sosial perlu dideteksi dan dibatasi. Pada penelitian [1] telah dilakukan penelitian dalam mendeteksi hatespeech dan abusive beserta target, kategori dan level hatespeech menggunakan berbagai feature extraction, classifier dan transformasi data. Pada penelitian tersebut word unigram, Random Forest Decision Tree dan label power-set merupakan kombinasi terbaik dengan akurasi 66.12%. Pada penelitian tersebut belum didapatkan hasil yang optimal dalam mendeteksi hatespeech dan abusive beserta target, kategori dan level hatespeech. Beberapa tahun belakangan ini neural network yang dikombinasikan dengan pretained language model seperti Bidirectional encoder from transformers (BERT) mendapatkan akurasi yang baik dalam berbagai tugas natural language processing. Pada penelitian ini dilakukan penelitian dengan membuat model neural network dengan BERT untuk mengklasifikasi hatespeech dan abusive language beserta target, kategori dan level. Hasil dari penelitian ini didapatkan bahwa model neural network dengan BERT mendapatkan hasil yang lebih baik dari penelitian sebelumnya yaitu dengan akurasi 72.28
    corecore