Teknik Regularisasi yang digunakan dalam Jaringan Neural dalam Pembelajaran Mendalam

Beranda » Berita Terbaru » Teknik Regularisasi yang digunakan dalam Jaringan Neural dalam Pembelajaran Mendalam
Idealnya, jaringan saraf tidak boleh kekurangan atau kelebihan fitur dan mempertahankan kemampuan generalisasi yang baik. Untuk tujuan ini, kami menggunakan berbagai teknik regularisasi dalam jaringan saraf kami. Berikut ini adalah daftar beberapa teknik regularisasi yang umum digunakan untuk meningkatkan kinerja dan akurasi jaringan saraf dalam pembelajaran mendalam.


1. Regularisasi L1 dan L2


L1 dan L2 adalah jenis teknik regularisasi yang paling umum digunakan dalam pembelajaran mesin maupun dalam algoritma pembelajaran mendalam. Teknik ini memperbarui fungsi biaya umum dengan menambahkan istilah lain yang dikenal sebagai penalti regularisasi. 


Untuk detail lebih lanjut, silakan kunjungi artikel saya ini.


2. Putus sekolah


Dropout dapat dilihat sebagai penonaktifan sementara atau pengabaian neuron di lapisan tersembunyi suatu jaringan. Secara probabilistik, meniadakan node dalam jaringan merupakan metode regularisasi yang sederhana dan efektif. Kita dapat mematikan beberapa neuron dalam suatu lapisan sehingga neuron tersebut tidak memberikan informasi atau mempelajari informasi apa pun dan tanggung jawab jatuh pada neuron aktif lainnya untuk belajar lebih giat dan mengurangi kesalahan.


Untuk informasi lebih lanjut tentang putus sekolah, silakan kunjungi postingan saya ini.


3. Augmentasi Data

Pembuatan data baru dengan melakukan modifikasi wajar terhadap data yang sudah ada disebut augmentasi data. Mari kita ambil contoh kumpulan data MNIST (angka yang ditulis tangan). Kita dapat dengan mudah menghasilkan ribuan gambar serupa baru dengan memutar, membalik, mengubah skala, menggeser, memperbesar dan memperkecil, memotong, mengubah, atau memvariasikan warna gambar yang sudah ada. 


Kita dapat menggunakan teknik augmentasi data ketika model kita mengalami overfitting akibat data yang lebih sedikit.


Dalam banyak kasus dalam pembelajaran mendalam, menambah jumlah data bukanlah tugas yang sulit seperti yang telah kita bahas di atas pada kasus kumpulan data MNIST. Dalam pembelajaran mesin, tugas ini tidak semudah itu karena kita memerlukan data berlabel yang tidak mudah didapatkan. 


4. Berhenti Dini


Saat melatih jaringan saraf, akan ada titik selama pelatihan ketika model akan berhenti melakukan generalisasi dan mulai mempelajari gangguan dalam set data pelatihan. Hal ini menyebabkan overfitting.


Salah satu pendekatan untuk memecahkan masalah ini adalah dengan memperlakukan jumlah periode pelatihan sebagai hiperparameter dan melatih model beberapa kali dengan nilai yang berbeda, lalu memilih jumlah periode yang menghasilkan kinerja terbaik. 


Kelemahan pendekatan ini adalah memerlukan beberapa model untuk dilatih dan dibuang. Hal ini dapat menjadi tidak efisien secara komputasi dan memakan waktu.


Pendekatan lain adalah berhenti lebih awalModel dievaluasi pada dataset validasi setelah setiap periode. Jika kinerja model pada dataset validasi mulai menurun (misalnya kerugian mulai meningkat atau akurasi mulai menurun), maka proses pelatihan dihentikan. Model pada saat pelatihan dihentikan, kemudian digunakan dan diketahui memiliki kinerja generalisasi yang baik.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai *

Penyedia Baru
binola

Broker yang
Lebih dari 2 juta bisnis
Lihat 10 Pialang Teratas

permainan

Permainan online
Lebih dari 2 juta bisnis
Lihat 10 Game Online Gratis Teratas

Game baru
Kebohongan P

$59.99 Edisi standar
28% Hemat Diskon
Lihat 10 Game Penyedia Teratas

KEPOMPONG

$24.99 Edisi standar
28% Hemat Diskon
Lihat 10 Game Penyedia Teratas

Penawaran Baru
Komisi hingga $1850 untuk pengguna aktif program afiliasi Oleh Exness

Poin Teratas © Hak Cipta 2023 | Oleh Topoin.com Media LLC.
Topoin.info adalah situs review produk, bonus, penawaran, penyedia layanan bisnis dan perusahaan terbaik dan terpercaya sepanjang masa.

Temukan lebih banyak dari Poin Teratas

Berlangganan sekarang untuk terus membaca dan mendapatkan akses ke arsip lengkap.

lanjutkan membaca