İnternetin gelişmesiyle birlikte dünya genelinde
kullanıcılar tarafından ifade edilen veri miktarı artmıştır. Sosyal
medyada nefret söylemi tespiti, zararlı dilin önlenmesi ve güvenli
çevrimiçi toplulukların teşvik edebilmesi önemli bir görevdir.
Dönüştürücülerden Çift Yönlü Kodlayıcı Temsilleri (Bidirectional
Encoder Representations from Transformers – BERT), doğal dil
işleme görevlerinde başarılı performans sergileyen popüler bir dil
modelidir. Bu çalışmada, Türkiye’deki Twitter kullanıcılarının
yorumlarında nefret söylemi tespiti için BERT-Base modeli
kullanılmıştır. Zararlı ve zararsız olarak etiketlenen örneklerden
oluşan bir veri setiyle eğitilerek %92,53 test doğruluk başarımı
elde edilmiştir. Geliştirilen model, canlı ortamda kullanıcıların
hizmetine sunulmuştur.With the development of the Internet, the amount
of data expressed by users worldwide has increased. Detecting hate
speech in social media, preventing harmful language and
promoting safe online communities is an important task.
Bidirectional Encoder Representations from Transformers
(BERT) is a popular language model that performs well in natural
language processing tasks. In this study, the BERT-Base model is
used to detect hate speech in the comments of Twitter users in
Turkey. It was trained with a dataset of examples labeled as
harmful and harmless and achieved 92.53% test accuracy. The
developed model was presented to users in a live environment