Ardana, Affan (2023) KLASIFIKASI BERITA PALSU BERBAHASA INDONESIA MENGGUNAKAN ALGORITMA BERT. S1 - Sarjana thesis, Universitas AMIKOM Yogyakarta.
Text (COVER-ABSTRAK)
COVER.pdf Download (829kB) |
|
Text (BAB I)
BAB I.pdf Download (180kB) |
|
Text (BAB II)
BAB II.pdf Restricted to Registered users only Download (1MB) |
|
Text (BAB III)
BAB III.pdf Restricted to Registered users only Download (203kB) |
|
Text (BAB IV)
BAB IV.pdf Restricted to Registered users only Download (940kB) |
|
Text (BAB V)
BAB V.pdf Download (52kB) |
|
Text (DAFTAR PUSTAKA-LAMPIRAN)
Daftar Pustaka dan Lampiran.pdf Restricted to Registered users only Download (374kB) |
|
Other (SOURCE CODE)
Source Code - Affan Ardana.rar Restricted to Repository staff only Download (64kB) |
|
Text (PUBLIKASI)
Publikasi.pdf Restricted to Repository staff only Download (457kB) |
Abstract
Berita palsu menyebar dengan cepat karena akses internet yang mudah. Klasifikasi menggunakan deep learning dapat digunakan sebagai cara untuk mengidentifikasi sebuah berita. Arsitektur deep learning yang bisa digunakan untuk tugas klasifikasi adalah arsitektur recurrent. Namun, arsitektur recurrent memiliki keterbatasan yaitu pemahaman konteks yang kurang baik. Arsitektur Transformer dibuat untuk menangani keterbatasan arsitektur recurrent tersebut. Salah satu algoritma yang didasarkan pada arsitektur Transformer adalah BERT. Penelitian ini bertujuan untuk menggunakan BERT dalam masalah klasifikasi berita palsu berbahasa Indonesia untuk melihat hasil performanya serta perbandingan performa BERT terhadap arsitektur recurrent. Dataset yang digunakan berjumlah dua dataset yang berasal dari penelitian sebelumnya. Dataset A merepresentasikan dataset kecil sedangkan Dataset B merepresentasikan dataset besar. Token yang panjangnya melebihi ketentuan dipotong menggunakan tiga jenis truncation yaitu head-only, tail-only, dan head+tail. K-fold Cross Validation digunakan sebagai validasi hasil performa BERT. Model pre-trained BERT yang digunakan untuk pelatihan adalah IndoBERTBASE. Hasil penelitian menunjukkan bahwa BERT menghasilkan performa terbaik pada head-only truncation di Dataset A serta Dataset B. BERT dengan head-only truncation menghasilkan akurasi sebesar 67%, precision sebesar 53%, recall sebesar 48%, dan f-score sebesar 45% pada Dataset A serta menghasilkan akurasi sebesar 93%, precision sebesar 90%, recall sebesar 90%, dan f-score sebesar 89% pada Dataset B. Perbandingan BERT dengan model recurrent menunjukkan bahwa LSTM dan GRU dapat mengungguli BERT dalam dataset yang kecil. Sedangkan pada dataset yang besar, BERT dapat meningkatkan akurasi sebesar 8%, precision 6%, dan recall sebesar 7% daripada LSTM.
Item Type: | Thesis (S1 - Sarjana) | ||
---|---|---|---|
Contributor: |
|
||
Uncontrolled Keywords: | Berita Palsu, BERT, Penambangan Teks. | ||
Subjects: | 000 - Komputer, Informasi dan Referensi Umum > 000 Ilmu komputer, ilmu pengetahuan dan sistem-sistem > 000 Ilmu komputer, informasi dan pekerjaan umum | ||
Divisions: | Fakultas Ilmu Komputer > Informatika | ||
Depositing User: | RC Universitas AMIKOM Yogyakarta | ||
Date Deposited: | 05 Jan 2024 03:42 | ||
Last Modified: | 05 Jan 2024 03:54 | ||
URI: | http://eprints.amikom.ac.id/id/eprint/23275 |
Actions (login required)
View Item |