Abstract:
Deep learning merupakan algoritma cabang dari neural network yang biasa dilakukan untuk
melakukan klasifikasi dan prediksi pada suatu data. Prediksi cacat software biasa dilakukan
pada penelitian dengan menggunakan data yang mengandung metrik software seperti data
yang akan digunakan pada penelitian ini yait dataset NASA MDP. Optimisasi sangat
diperlukan pada algoritma deep learning untuk merubah nilai hyperparameter pada masa
pelatihan model. Adam dan AdaGrad merupakan optimasi turunan dari metode gradient
descent yang saat ini berfungsi lebih baik meminimumkan loss sebuah untuk klasifikasi.
Learning Rate Scheduler digunakan pada algoritma optimisasi untuk melakukan kontrol pada
learning rate dengan cara memperbaharui nilai learning rate di setiap step selama pelatihan
model. Pada penelitian ini menggunakan model deep neural network dengan optimasi Adam
dan AdaGrad dan menerapkan Learning rate scheduler disetiap model yang dibuat, setelah
itu model divalidasi dengan Straitfield k-fold cross validation. Data pelatihan yang telah
dibagi akan dilakukan resampling menggunakan Random oversampling, dikarenakan
mayoritas dataset NASA MDP kelas label tidak seimbang. Pada hasil evaluasi AUC model
DNN optimasi AdaGrad dengan LRS lebih unggul yaitu 0.808 daripada DNN optimasi Adam
dengan LRS mendapatkan nilai performa 0.795.