RINGKASAN TEKS MENGGUNAKAN GENERATIVE PRETRAINED TRANSFORMER 2

Khasanah, Aini Nur (2023) RINGKASAN TEKS MENGGUNAKAN GENERATIVE PRETRAINED TRANSFORMER 2. S1 - Sarjana thesis, Universitas AMIKOM Yogyakarta.

[img] Text (COVER-ABSTRAK)
COVER.pdf

Download (658kB)
[img] Text (BAB I)
BAB I.pdf

Download (123kB)
[img] Text (BAB II)
BAB II.pdf
Restricted to Registered users only

Download (438kB)
[img] Text (BAB III)
BAB III.pdf
Restricted to Registered users only

Download (154kB)
[img] Text (BAB IV)
BAB IV.pdf
Restricted to Registered users only

Download (176kB)
[img] Text (BAB V)
BAB V.pdf

Download (71kB)
[img] Text (DAFTAR PUSTAKA-LAMPIRAN)
Daftar Pustaka dan Lampiran.pdf
Restricted to Registered users only

Download (189kB)
[img] Other (SOURCE CODE)
Source Code 19.11.259 Aini Nur Khasanah.rar
Restricted to Repository staff only

Download (39kB)
[img] Text (PUBLIKASI)
Publikasi 19.11.2595 Aini Nur Khasanah.pdf
Restricted to Repository staff only

Download (520kB)

Abstract

Peringkasan teks otomatis adalah salah satu masalah yang dihadapi dalam bidang Pemrosesan Bahasa Alami (NLP), yang bertujuan untuk mengidentifikasi dan menyajikan informasi penting dari teks yang panjang secara cepat dan akurat. Ada dua pendekatan utama yang digunakan dalam proses peringkasan teks, yaitu peringkasan abstraktif dan peringkasan ekstraktif. Peringkasan abstraktif lebih sulit dilakukan karena tingkat kesulitan yang lebih tinggi, namun hasilnya lebih alami dan dapat menghasilkan kata-kata baru yang tidak ada dalam teks asli. Dalam penelitian sebelumnya, RNN termasuk model Seq2Seq yang paling populer dalam peringkasan teks. Namun, metode ini masih memiliki kelemahan dalam menyimpan memory dan gradien yang hilang pada kalimat yang panjang, sehingga menyebabkan penurunan kualitas peringkasan teks yang panjang. Oleh karena itu, dalam penelitian ini mengusulkan untuk menggunakan model Transformer dengan mekanisme Attention yang dapat mengambil informasi penting dan dapat melakukan peringkasan pada teks yang panjang. Model Transformer yang diusulkan adalah model GPT-2 (Generative PreTrained Tranformer 2) yang menggunakan decoder sehingga dapat memprediksi kata berikutnya dengan menggunakan model pre-trained dari w11wo/indo-gpt2small yang diimplementasikan pada dataset Indosum yang berisikan teks dan ringkasan berita berbahasa Indonesia Indosum. Kinerja model dievaluasi menggunakan evaluasi ROUGE. Hasil penelitian dengan model pre-trained GPT-2 yang diusulkan berhasil mencapai rata-rata Recall untuk R-1, R-2, dan R-L masingmasing 0.56, 0.46, dan 0.52.

Item Type: Thesis (S1 - Sarjana)
Contributor:
Pembimbing
Hayaty, Mardhiya
Uncontrolled Keywords: Ringkasan Teks, Transformer, Gpt-2.
Subjects: 000 - Komputer, Informasi dan Referensi Umum > 000 Ilmu komputer, ilmu pengetahuan dan sistem-sistem > 000 Ilmu komputer, informasi dan pekerjaan umum
Divisions: Fakultas Ilmu Komputer > Informatika
Depositing User: RC Universitas AMIKOM Yogyakarta
Date Deposited: 12 Apr 2023 02:47
Last Modified: 26 Jul 2023 07:56
URI: http://eprints.amikom.ac.id/id/eprint/18368

Actions (login required)

View Item View Item