Pengenalan dasar berbagai lapisan dalam CNN (Convolutional Neural Network)

Beranda » Berita Terbaru » Pengenalan dasar berbagai lapisan dalam CNN (Convolutional Neural Network)
CNN (Jaringan Syaraf Konvolusional)) Adalah umpan-maju jaringan saraf saat informasi bergerak dari satu lapisan ke lapisan berikutnya. CNN juga disebut Jaringan KonvIni terdiri dari lapisan tersembunyi yang memiliki lilitan dan fungsi penggabungan selain fungsi aktivasi untuk memperkenalkan non-linearitas. 


CNN terutama digunakan untuk pengenalan gambarCNN pertama-tama belajar mengenali komponen-komponen suatu gambar (misalnya garis, sudut, lengkungan, bentuk, tekstur, dsb.) lalu belajar menggabungkan komponen-komponen tersebut (penggabungan) guna mengenali struktur yang lebih besar (misalnya wajah, objek, dsb.).


Lapisan dalam CNN

1. Lapisan Konvolusi
2. Lapisan ReLU
3. Lapisan Pengumpulan
4. Lapisan Normalisasi
5. Lapisan yang terhubung penuh

Komputer melihat gambar masukan sebagai serangkaian piksel. NRepresentasi numerik piksel diproses melalui banyak lapisan CNN. ESetiap gambar input melewati serangkaian lapisan tersembunyi seperti konvolusional lapisan dengan filter (biji-bijian), ULT lapisan, penggabungan lapisan dan terhubung sepenuhnya lapisan-lapisan tersembunyi ini lapisan melakukan ekstraksi fitur dari gambar.


Lapisan Konvolusional


Konvolusi adalah lapisan pertama yang mengekstrak fitur dari gambar masukan. Lapisan ini menggunakan filter matriks dan melakukan operasi konvolusi untuk mendeteksi pola dalam gambar. Konvolusi gambar dengan filter yang berbeda dapat melakukan operasi seperti deteksi tepi, pengaburan, dan penajaman dengan menerapkan filter. 


Convolusi adalah operasi matematika yang terjadi antara dua matriks (matriks gambar dan filter atau kernel) untuk membentuk matriks ketiga sebagai output (matriks berbelit-belit). Output ini juga disebut matriks peta fitur.


Filter (Kernel): Filter bertindak sebagai pendeteksi pola. FFilter membantu dalam menemukan tepi, kurva, sudut, tekstur, warna, area gelap dan terang dalam gambar dan banyak detail lainnya seperti tinggi, lebar, dan kedalaman, dll. Kernel terus meluncur di seluruh gambar untuk mengekstrak berbagai komponen atau pola gambar. Filter pertama belajar mengekstrak fitur sederhana di lapisan awal yang berbelit-belit, dan kemudian filter ini menjadi lebih canggih di lapisan yang lebih dalam dan menemukan pola yang kompleks. 


Kami memutar filter ini di atas matriks masukan dan mendapatkan keluaran yang berdimensi lebih kecil.



























Formula: Pertimbangkan bahwa dimensi matriks masukan kita adalah Bahasa Indonesia: nXn. Ukuran filter adalah Kotak dialog Kotak dialog X kotak dialog. Maka matriks keluaran kita akan menjadi Tentukan nilai n – f + 1 dan y = 1. Ganti saja n dengan 4, f dengan 3 dan amati bahwa matriks keluarannya menjadi 2X2.

Lapisan: Kita dapat mengamati bahwa ukuran input berkurang dari 4 X 4 menjadi 2 X 2 setelah satu konvolusi menggunakan filter 3 X 3. Hal ini dapat menimbulkan masalah. Kita mungkin kehilangan beberapa informasi tentang tepi dan sudut pada gambar. Jadi, untuk mempertahankan informasi ini, kita harus menggunakan padding. 

Jenis BantalanKami memiliki dua jenis padding: Zero Padding dan Valid Padding (tanpa padding).


1. Tanpa Bantalan: Isi gambar dengan angka nol sehingga kita tidak kehilangan informasi apa pun tentang tepian dan sudut.























Pada gambar di atas, kami telah menambahkan nilai nol pada input. Sekarang, jika kami menggunakan filter 3 X 3 pada gambar ini, kami memperoleh matriks output 4 X 4 (tanpa pengurangan dimensi) alih-alih 2 X 2.


2. Padding yang Sah: Buang bagian gambar yang tidak sesuai dengan filter. Ini disebut bantalan yang valid yang hanya menyimpan bagian gambar yang valid. Dalam kasus ini, kami berkompromi untuk menghilangkan beberapa informasi tepi pada gambar. Kami hanya akan mendapatkan matriks 2 X 2 pada contoh di atas. Kami dapat menggunakan pendekatan ini jika kami tahu bahwa informasi di tepi tidak begitu berguna dan kami dapat mengabaikannya dengan aman.

Lapisan ReLU


ReLU adalah singkatan dari Satuan Linier yang Diperbaiki untuk operasi non-linier. Outputnya adalah ƒ(x) = maks(0,x)Tujuan utama ReLU adalah untuk memperkenalkan non-linearitas dalam ConvNet. Ia melakukan operasi elemen demi elemen dan menetapkan piksel negatif ke nol. 


Fungsi ReLU diterapkan ke tMatriks keluaran (matriks peta fitur) di lapisan konvolusional dan mengubahnya menjadi matriks peta fitur yang diperbaiki.


Kita juga dapat menggunakan fungsi aktivasi lainnya seperti mencurigakan dan sigmoid.dll tetapi secara umum ReLU berkinerja lebih baik daripada fungsi aktivasi lainnya dalam banyak skenario. Jadi, secara default, kami mempertimbangkan ReLU dibandingkan fungsi aktivasi lainnya.


Melangkah: Stride adalah jumlah piksel yang bergeser pada matriks input. Atau, stride dapat diartikan sebagai jumlah piksel yang kita inginkan agar filter kita bergerak saat meluncur melintasi gambar. 


Bila langkahnya 1, maka kita pindahkan filter ke 1 piksel pada satu waktu. Bila langkahnya 2, maka kita pindahkan filter ke 2 piksel pada satu waktu dan seterusnya. Kita akan menggunakan konsep ini dalam lapisan penggabungan.


Lapisan Pengumpulan


Lapisan pooling ditambahkan setelah lapisan konvolusional. Output dari lapisan konvolusional bertindak sebagai input ke lapisan pooling. Lapisan pooling melakukan down-sampling pada gambar yang mengurangi dimensionalitas dengan mempertahankan informasi penting. Dengan cara ini, kebutuhan memori juga berkurang.


Ia melakukan ekstraksi fitur lebih lanjut dan mendeteksi beberapa komponen gambar seperti tepian, sudut, dan lain-lain.  


Ini mengubah matriks peta fitur yang diperbaiki untuk matriks peta fitur tergabung.

Jenis Penggabungan


1. Penggabungan MaksimalIa mengambil nilai maksimum dari peta fitur yang telah diperbaiki.
2. Penggabungan MinimumMengambil nilai minimum dari peta fitur yang diperbaiki.
3. Penggabungan Rata-rataIa mengambil rata-rata semua elemen dari peta fitur yang telah diperbaiki.
4. Penggabungan JumlahIa mengambil jumlah semua elemen dari peta fitur yang telah diperbaiki.






























Pada gambar di atas, kami menghitung nilai maksimum dari setiap blok (lihat blok oranye) untuk membuat matriks keluaran baru yang berdimensi lebih rendah dibandingkan dengan matriks masukan asli. Dengan cara ini, kami menyimpan informasi yang paling berguna dan membuang informasi yang tidak berguna.


Kita juga dapat menentukan parameter padding di lapisan pooling seperti halnya di lapisan konvolusional.


Keuntungan dari Pooling Layer


1. Mengurangi resolusi dan dimensi dan dengan demikian mengurangi kompleksitas komputasi.

2. Ini juga membantu mengurangi overfitting.


Lapisan Normalisasi


Normalisasi adalah teknik yang digunakan untuk meningkatkan kinerja dan stabilitas jaringan saraf. Teknik ini mengubah semua masukan sehingga nilai rata-ratanya nol dan simpangan bakunya satu. 


Lapisan Terhubung Sepenuhnya


Lapisan yang terhubung penuh digunakan untuk menghubungkan setiap neuron dalam satu lapisan ke semua neuron di lapisan lain. Kami meratakan matriks peta fitur tergabung ke vektor dan kemudian memasukkan vektor itu ke dalam lapisan yang terhubung sepenuhnya.


Hiperparameter dalam CNN


1. Jumlah lapisan berbelit-belit
2. Jumlah kernel / filter dalam lapisan berbelit-belit
3. Ukuran Kernel / Filter dalam lapisan berbelit-belit
4. Padding dalam lapisan berbelit-belit (padding nol atau valid)


Untuk daftar terperinci hiperparameter dalam jaringan saraf, silakan lihat postingan saya ini.


Kesimpulan


1. Memberikan masukan gambar ke dalam lapisan konvolusi.


2. Pilih parameter, terapkan filter dengan langkah, tambahkan bantalan jika diperlukan. 


3. Lakukan konvolusi pada gambar. Output dari lapisan ini disebut matriks peta fitur.


4. Terapkan aktivasi ReLU ke matriks. Output dari lapisan ini disebut diperbaiki matriks peta fitur.


5. Lakukan pooling untuk mengurangi dimensionalitas. Output dari layer ini disebut matriks peta fitur tergabung


6. Tambahkan lapisan konvolusional sebanyak mungkin hingga puas


7. Ratakan output (konversi matriks peta fitur tergabung untuk vektor) dan memasukkannya ke dalam lapisan yang terhubung sepenuhnya


8. Keluarkan kelas menggunakan fungsi aktivasi (Regresi Logistik dengan fungsi biaya) dan klasifikasikan gambar.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai *

Penyedia Baru
binola

Broker yang
Lebih dari 2 juta bisnis
Lihat 10 Pialang Teratas

permainan

Permainan online
Lebih dari 2 juta bisnis
Lihat 10 Game Online Gratis Teratas

Game baru
Kebohongan P

$59.99 Edisi standar
28% Hemat Diskon
Lihat 10 Game Penyedia Teratas

KEPOMPONG

$24.99 Edisi standar
28% Hemat Diskon
Lihat 10 Game Penyedia Teratas

Penawaran Baru
Komisi hingga $1850 untuk pengguna aktif program afiliasi Oleh Exness

Poin Teratas © Hak Cipta 2023 | Oleh Topoin.com Media LLC.
Topoin.info adalah situs review produk, bonus, penawaran, penyedia layanan bisnis dan perusahaan terbaik dan terpercaya sepanjang masa.

Temukan lebih banyak dari Poin Teratas

Berlangganan sekarang untuk terus membaca dan mendapatkan akses ke arsip lengkap.

lanjutkan membaca