KLASIFIKASI BERITA PALSU BERBAHASA INDONESIA MENGGUNAKAN ALGORITMA BERT

Ardana, Affan (2023) KLASIFIKASI BERITA PALSU BERBAHASA INDONESIA MENGGUNAKAN ALGORITMA BERT. S1 - Sarjana thesis, Universitas AMIKOM Yogyakarta.

[img] Text (COVER-ABSTRAK)
COVER.pdf

Download (829kB)
[img] Text (BAB I)
BAB I.pdf

Download (180kB)
[img] Text (BAB II)
BAB II.pdf
Restricted to Registered users only

Download (1MB)
[img] Text (BAB III)
BAB III.pdf
Restricted to Registered users only

Download (203kB)
[img] Text (BAB IV)
BAB IV.pdf
Restricted to Registered users only

Download (940kB)
[img] Text (BAB V)
BAB V.pdf

Download (52kB)
[img] Text (DAFTAR PUSTAKA-LAMPIRAN)
Daftar Pustaka dan Lampiran.pdf
Restricted to Registered users only

Download (374kB)
[img] Other (SOURCE CODE)
Source Code - Affan Ardana.rar
Restricted to Repository staff only

Download (64kB)
[img] Text (PUBLIKASI)
Publikasi.pdf
Restricted to Repository staff only

Download (457kB)

Abstract

Berita palsu menyebar dengan cepat karena akses internet yang mudah. Klasifikasi menggunakan deep learning dapat digunakan sebagai cara untuk mengidentifikasi sebuah berita. Arsitektur deep learning yang bisa digunakan untuk tugas klasifikasi adalah arsitektur recurrent. Namun, arsitektur recurrent memiliki keterbatasan yaitu pemahaman konteks yang kurang baik. Arsitektur Transformer dibuat untuk menangani keterbatasan arsitektur recurrent tersebut. Salah satu algoritma yang didasarkan pada arsitektur Transformer adalah BERT. Penelitian ini bertujuan untuk menggunakan BERT dalam masalah klasifikasi berita palsu berbahasa Indonesia untuk melihat hasil performanya serta perbandingan performa BERT terhadap arsitektur recurrent. Dataset yang digunakan berjumlah dua dataset yang berasal dari penelitian sebelumnya. Dataset A merepresentasikan dataset kecil sedangkan Dataset B merepresentasikan dataset besar. Token yang panjangnya melebihi ketentuan dipotong menggunakan tiga jenis truncation yaitu head-only, tail-only, dan head+tail. K-fold Cross Validation digunakan sebagai validasi hasil performa BERT. Model pre-trained BERT yang digunakan untuk pelatihan adalah IndoBERTBASE. Hasil penelitian menunjukkan bahwa BERT menghasilkan performa terbaik pada head-only truncation di Dataset A serta Dataset B. BERT dengan head-only truncation menghasilkan akurasi sebesar 67%, precision sebesar 53%, recall sebesar 48%, dan f-score sebesar 45% pada Dataset A serta menghasilkan akurasi sebesar 93%, precision sebesar 90%, recall sebesar 90%, dan f-score sebesar 89% pada Dataset B. Perbandingan BERT dengan model recurrent menunjukkan bahwa LSTM dan GRU dapat mengungguli BERT dalam dataset yang kecil. Sedangkan pada dataset yang besar, BERT dapat meningkatkan akurasi sebesar 8%, precision 6%, dan recall sebesar 7% daripada LSTM.

Item Type: Thesis (S1 - Sarjana)
Contributor:
Pembimbing
Sasongko, Theopilus Bayu
Uncontrolled Keywords: Berita Palsu, BERT, Penambangan Teks.
Subjects: 000 - Komputer, Informasi dan Referensi Umum > 000 Ilmu komputer, ilmu pengetahuan dan sistem-sistem > 000 Ilmu komputer, informasi dan pekerjaan umum
Divisions: Fakultas Ilmu Komputer > Informatika
Depositing User: RC Universitas AMIKOM Yogyakarta
Date Deposited: 05 Jan 2024 03:42
Last Modified: 05 Jan 2024 03:54
URI: http://eprints.amikom.ac.id/id/eprint/23275

Actions (login required)

View Item View Item