Klasifikasi Nominal Uang Kertas Rupiah Untuk Tunanetra Menggunakan Algoritma Convolutional Neural Network
Abstract
Penggunaan blind code pada uang kertas Rupiah Indonesia dinilai tidak
dapat membantu penyandang tunanetra. Maka dari itu diperlukan sebuah terobosan
lain, salah satunya dengan mengajarkan mesin agar dapat melihat layaknya
makhluk biologis atau biasa disebut Computer Vision. Convolutional Neural
Network (CNN) dapat menjalankan tugas tersebut yang mana CNN dapat
memproses kedalaman atau depth citra. Selain itu diperkirakan latarbelakang akan
memengaruhi peforma model sehingga diperlukan sebuah metode untuk
mengisolasikan objek dari citra atau memisahkan objek dengan latar belakang,
dalam kasus ini digunakan Segmentasi dengan menggunakan arsitektur U-Net.
Selain metode yang digunakan, diperlukan pula perangkat yang mobile sehingga
penyandang dapat menggunakannya sewaktu waktu, maka dari itu digunakan pula
arsitektur klasifikasi MobileNetV2 yang diklaim memiliki arsitektur ringan
sehingga cocok digunakan pada perangkat mobile seperti smartphone. Maka dari
itu penelitian ini akan membandingkan 2 buah skenario utama yaitu, Skenario
klasifikasi MobileNetV2 tanpa segmentasi U-Net dengan skenario klasifikasi
MobileNetV2 dengan data tersegmentasi U-Net. Data yang digunakan akan dibagi
menjadi 3 jenis data, dimana pada data jenis 1 didapatkan dengan menggunakan
webcam msi gf63thin dengan ukuran 224x224 pixel. Data jenis 2 didapatkan
dengan menggunakan kamera xiaomi redmi 9 dengan ukuran 2304x4096 pixel. Dan
data jenis 3 yang didapatkan melalui kaggle secara open source dengan ukuran
1600x900 pixel. Data jenis 3 digunakan untuk memperbanyak citra atau
memperkaya tiap kelas citra. Setelah dilakukan percobaan dan beberapa tuning
hasil terbaik didapatkan pada skenario utama klasifikasi MobileNetV2 tanpa data
tersegmentasi U-Net dengan pembagian data 75% data latih, 25% data validasi.
Model tersebut berhasil mendapatkan metrik 99% accuracy, 99% precision, 99%
recall, 99% f1-score.