Show simple item record

dc.contributor.advisorBudiman, M. Andri
dc.contributor.authorNaufal, Mufridary
dc.date.accessioned2018-12-04T07:55:57Z
dc.date.available2018-12-04T07:55:57Z
dc.date.issued2018
dc.identifier.otherNurhusnah Siregar
dc.identifier.urihttps://repositori.usu.ac.id/handle/123456789/8814
dc.description111402097en_US
dc.description.abstractPenulisan sebuah karya ilmiah merupakan salah satu ruang lingkup dalam proses pertukaran ilmu dalam dunia ilmiah. Para penulis jurnal ilmiah menaruh ide-ide, hipotesis, dan eksperimen mereka dalam sebuah jurnal yang juga diharuskan mereferensikan jurnal-jurnal ilmiah yang sebelumnya telah dibuat oleh para penulis lain. Salah satu tujuan untuk mereferensi tulisan-tulisan sebelumnya adalah untuk memeriksa jikalau tulisan ilmiah yang ingin dilakukan telah dibuat sebelumnya dan juga memeriksa jikalau ternyata tulisan tersebut terdapat kemiripan-kemiripan, walaupun kemiripan tersebut tidak disengaja. Dikarenakan terdapat banyak terjadi kasus-kasus plagiarisme, yakni menggunakan/menjiplak isi sebuah hasil karya tulisan tanpa persetujuan sang penulis asli, tidak jarang hampir seluruh isi ditiru dengan sangat minim perubahan. Maka seiringnya dengan kemajuan teknologi banyak tercipta metode-metode dan algoritma-algoritma yang digunakan sebagai pendeteksi plagiarisme. Beberapa diantaranya adalah algoritma Rabin-Karp dan Levenshtein. Sudah terdapat tulisan-tulisan yang menggunakan kedua metode tersebut dalam mendeteksi plagiarisme, tetapi kebanyakan hanya memakai salah satu diantara dua algoritma tersebut. Maka dari itu penulis memutuskan untuk menggabungkan kedua algortma tersebut sehingga dapat menghasilkan pendeteksi yang memiliki tingkat akurasi yang lebih baik sehingga dapat membantu proses pendeteksian.en_US
dc.description.abstractThe process of writing a scientific journal is one of many aspect found in the exchange of ideas and knowledge in the scientific world. The writers put their ideas, hypotheses, and experiments on a scientific journal while also referencing previous writings which other scientist have made. One of the aim of why this done is to investigate whether the topic the journal will elaborate upon has already been discussed on other journals and also to check whether there are similarities found, whether deliberate or not. The main goal is to eliminate the practice of plagiarism, because there had been found many case of plagiarism in various scientific journals. Plagiarism refer to the practice of deliberately using contents of other writers without their permission or without stating the source, more often than not by only changing a very small portion of the contents. With the advance of today technologies, there had been many methods and algorithms created that can be used to detect the act of plagiarism on a writing. Two of such algorithms are the Rabin-Karp algorithm and the Levenshtein algorithm. There already had been many journals created with the purpose of detecting plagiarism using these algorithms, but mostly by using only one of them. Therefore, this writer chose to combine these two algorithms in an attempt to create a more accurate detector of plagiarism that can be used to help examiners finding deliberate similiarities.en_US
dc.language.isoiden_US
dc.publisherUniversitas Sumatera Utaraen_US
dc.subjectTulisan Ilmiahen_US
dc.subjectPlagiarismeen_US
dc.subjectAlgoritmaen_US
dc.subjectPendeteksien_US
dc.subjectRabin-Karpen_US
dc.subjectLevenshteinen_US
dc.titlePenggunaan Kombinasi Metode Rabin-KARP dan Levenshtein dalam Menguji Kemiripan Dokumenen_US
dc.typeSkripsi Sarjanaen_US


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record