亚洲天堂网_国产中出_日韩激情网_97se.com_中国亚洲老少妇色视频

資源共享分類
通信信號 圖像語音 神經網絡 智能優化 控制器 數值仿真 數學建模 其他專業

微信:HuangL1121
Q Q:1224848052
團隊:嘉興麥特萊博軟件開發工作室
地址:嘉興港區
 
神經網絡
Alexnet網絡結構
來源:本站    日期:2019/11/20    瀏覽量:1665  

功能描述:

--cov1
1.輸入Input的圖像規格: 224X224X3(RGB圖像),實際上會經過預處理變為227X227X3
2.使用的96個大小規格為11X11X3的過濾器filter,或者稱為卷積核(步長為4),進行特征提取,卷積后的數據:
55X55X96 [(227-11)/4+1=55]
(注意,內核的寬度和高度通常是相同的,深度與通道的數量是相同的。)
3.使用relu作為激勵函數,來確保特征圖的值范圍在合理范圍之內。
relu1后的數據:55X55X96
4.降采樣操作pool1
pool1的核:3X3 步長:2,降采樣之后的數據為27X27X96 [(55-3)/2+1=27]
[注意:Alexnet中采用的是最大池化,是為了避免平均池化的模糊化效果,從而保留最顯著的特征,并且AlexNet中提出讓步長比池化核的尺寸小,這樣池化層的輸出之間會有重疊和覆蓋,提升了特征的豐富性,減少了信息的丟失。]
--cov2
1.輸入數據 27X27X96
2.conv2中使用256個5X5大小的過濾器filter(步長1)對27X27X96個特征圖,進行進一步提取特征,但是處理的方式和conv1不同,過濾器是對96個特征圖中的某幾個特征圖中相應的區域乘以相應的權重,然后加上偏置之后所得到區域進行卷積。經過這樣卷積之后,然后在在加上寬度高度兩邊都填充2像素,會的到一個新的256個特征圖.特征圖的大小為:
(【27+2X2 - 5】/1 +1) = 27 ,也就是會有256個27X27大小的特征圖.
3.然后進行relu操作,relu之后的數據27X27X96
4.降采樣操作pool2
pool1的核:3X3 步長:2,pool2(池化層)降采樣之后的數據為13X13X96 [(27-3)/2+1=13]
--cov3
1.沒有降采樣層
2.得到【13+2X1 -3】/1 +1 = 13 , 384個13X13的新特征圖(核3X3,步長為1)
--cov4
1.沒有降采樣層
2.得到【13+2X1 -3】/1 +1 = 13 , 384個13X13的新特征圖(核3X3,步長為1)
--cov5
1.輸出數據為13X13X256的特征圖
2.降采樣操作pool3**
pool3的核:3X3 步長:2,pool3(池化層)降采樣之后的數據為6X6X256 [(13-3)/2+1=6]
--fc6
全連接層,這里使用4096個神經元,對256個大小為6X6特征圖,進行一個全連接,也就是將6X6大小的特征圖,進行卷積變為一個特征點,然后對于4096個神經元中的一個點,是由256個特征圖中某些個特征圖卷積之后得到的特征點乘以相應的權重之后,再加上一個偏置得到,之后再進行一個dropout,也就是隨機從4096個節點中丟掉一些節點信息(值清0),然后就得到新的4096個神經元。
dropout的使用可以減少過度擬合,丟棄并不影響正向和反向傳播。)
[注意:在經過交叉驗證,隱含節點dropout率等于0.5的時候效果最好,原因是0.5的時候dropout隨機生成的網絡結構最多。
]
--fc7
和fc6類似
--fc8
采用的是1000個神經元,然后對fc7中4096個神經元進行全鏈接,然后會通過高斯過濾器,得到1000個float型的值,也就是我們所看到的預測的可能性。

 
Relu激活函數
Relu函數為f(x)= max(0,x)
1.sigmoid與tanh有飽和區,Relu函數在x>0時導數一直是1,因為梯度的連乘表達式包括各層激活函數的導數以及各層的權重,reLU解決了激活函數的導數問題,所以有助于緩解梯度消失,也能在一定程度上解決梯度爆炸,從而加快訓練速度。
2.無論是正向傳播還是反向傳播,計算量顯著小于sigmoid和tanh。
from keras.models import Sequential from keras.layers import Dense, Flatten, Dropout from keras.layers.convolutional import Conv2D, MaxPooling2D from keras.utils.np_utils import to_categorical
import numpy as np
seed = 7 np.random.seed(seed) # 創建模型序列 model = Sequential() #第一層卷積網絡,使用96個卷積核,大小為11x11步長為4, 要求輸入的圖片為227x227, 3個通道,不加邊,激活函數使用relu model.add(Conv2D(96, (11, 11), strides=(1, 1), input_shape=(28, 28, 1), padding='same', activation='relu', kernel_initializer='uniform')) # 池化層 model.add(MaxPooling2D(pool_size=(3, 3), strides=(2, 2))) # 第二層加邊使用256個5x5的卷積核,加邊,激活函數為relu model.add(Conv2D(256, (5, 5), strides=(1, 1), padding='same', activation='relu', kernel_initializer='uniform')) #使用池化層,步長為2 model.add(MaxPooling2D(pool_size=(3, 3), strides=(2, 2))) # 第三層卷積,大小為3x3的卷積核使用384個 model.add(Conv2D(384, (3, 3), strides=(1, 1), padding='same', activation='relu', kernel_initializer='uniform')) # 第四層卷積,同第三層 model.add(Conv2D(384, (3, 3), strides=(1, 1), padding='same', activation='relu', kernel_initializer='uniform')) # 第五層卷積使用的卷積核為256個,其他同上 model.add(Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu', kernel_initializer='uniform')) model.add(MaxPooling2D(pool_size=(3, 3), strides=(2, 2))) model.add(Flatten()) model.add(Dense(4096, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(4096, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(10, activation='softmax')) model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy']) model.summary() 參考來源:(https://blog.csdn.net/qq_41559533/article/details/83718778 )

聯系:highspeedlogic

QQ :1224848052

微信:HuangL1121

郵箱:1224848052@qq.com

網站:http://www.mat7lab.com/

網站:http://www.hslogic.com/

微信掃一掃:

 


   上一篇: MATLAB代做|FPGA代做|simulink代做——3D點云數據分析:pointNet++論文分析    下一篇:    
   相關閱讀
· MATLAB代做|FPGA代做|simulink代做—— 2020/7/14
· MATLAB代做|FPGA代做|simulink代做—— 2020/5/30
· MATLAB代做|FPGA代做|simulink代做—— 2020/5/30
· MATLAB代做|FPGA代做|simulink代做—— 2020/2/1
· MATLAB代做|FPGA代做|simulink代做—— 2019/12/11
· MATLAB代做|FPGA代做|simulink代做—— 2019/12/11
· MATLAB代做|FPGA代做|simulink代做—— 2019/12/11
· Alexnet網絡結構 2019/11/20
· MATLAB代做|FPGA代做|simulink代做—— 2019/9/15
· MATLAB代做|FPGA代做|simulink代做—— 2019/8/29
Copyright 2017-2025 © 嘉興麥特萊博軟件開發工作室
  • 網站備案號:浙ICP備18008591號-1