小編給大家分享一下CNN中卷積核數(shù)是什么,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
卷積核就是圖像處理時,給定輸入圖像,輸入圖像中一個小區(qū)域中像素加權(quán)平均后成為輸出圖像中的每個對應(yīng)像素,其中權(quán)值由一個函數(shù)定義,這個函數(shù)稱為卷積核。
卷積核的意義
卷積核其實在圖像處理中并不是新事物,Sobel算子等一系列濾波算子,一直都在被用于邊緣檢測等工作中,只是以前被稱為Filter。做圖像處理的同學(xué)應(yīng)該有印象。
卷積核具有的一個屬性就是局部性。即它只關(guān)注局部特征,局部的程度取決于卷積核的大小。比如用Sobel算子進行邊緣檢測,本質(zhì)就是比較圖像鄰近像素的相似性。
也可以從另外一個角度理解卷積核的意義。學(xué)過信號處理的同學(xué)應(yīng)該記得,時域卷積對應(yīng)頻域相乘。所以原圖像與卷積核的卷積,其實是對頻域信息進行選擇。比如,圖像中的邊緣和輪廓屬于是高頻信息,圖像中某區(qū)域強度的綜合考量屬于低頻信息。在傳統(tǒng)圖像處理里,這是指導(dǎo)設(shè)計卷積核的一個重要方面。
CNN中的卷積核
CNN中的卷積核跟傳統(tǒng)的卷積核本質(zhì)沒有什么不同。仍然以圖像為例,卷積核依次與輸入不同位置的圖像塊做卷積,得到輸出。
同時,CNN有一些它獨特的地方,比如各種定義:
CNN可以看作是DNN的一種簡化形式,即這里卷積核中的每一個權(quán)值就可以看成是DNN中的,且與DNN一樣,會多一個參數(shù)偏置。
一個卷積核在與Input不同區(qū)域做卷積時,它的參數(shù)是固定不變的。放在DNN的框架中理解,就是對同一層Layer中的神經(jīng)元而言,它們的和是相同的,只是所連接的節(jié)點在改變。因此在CNN里,這叫做共享權(quán)值偏置。
在CNN中,卷積核可能是高維的。假如輸入是維的,那么一般卷積核就會選擇為維,也就是與輸入的Depth一致。
最重要的一點,在CNN中,卷積核的權(quán)值不需要提前設(shè)計,而是跟DNN一樣利用GD來優(yōu)化,我們只需要初始化。
如上面所說,其實卷積核卷積后得到的會是原圖的某些特征(如邊緣信息),所以在CNN中,卷積核卷積得到的Layer稱作特征圖。
總之,一般CNN中兩層之間會含有多個卷積核,目的是學(xué)習(xí)出Input的不同特征,對應(yīng)得到多個特征圖。又由于卷積核中的參數(shù)是通過GD優(yōu)化得到而非我們設(shè)定的,于是初始化就顯得格外重要了。
以上是“CNN中卷積核數(shù)是什么”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!
新聞標(biāo)題:CNN中卷積核數(shù)是什么-創(chuàng)新互聯(lián)
文章路徑:http://www.chinadenli.net/article16/dijegg.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站設(shè)計公司、標(biāo)簽優(yōu)化、外貿(mào)建站、商城網(wǎng)站、網(wǎng)站導(dǎo)航、靜態(tài)網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容