亚洲天堂网_国产中出_日韩激情网_97se.com_中国亚洲老少妇色视频

資源共享分類
通信信號(hào) 圖像語(yǔ)音 神經(jīng)網(wǎng)絡(luò) 智能優(yōu)化 控制器 數(shù)值仿真 數(shù)學(xué)建模 其他專業(yè)

微信:HuangL1121
Q Q:1224848052
團(tuán)隊(duì):嘉興麥特萊博軟件開(kāi)發(fā)工作室
地址:嘉興港區(qū)
 
神經(jīng)網(wǎng)絡(luò)
MATLAB代做|FPGA代做|simulink代做——非常好的AI學(xué)習(xí)論文整理
來(lái)源:本站    日期:2020/2/1    瀏覽量:1716  

功能描述:

一、神經(jīng)網(wǎng)絡(luò)基礎(chǔ)部分

 

No1  wide_deep模型論文:

關(guān)于神經(jīng)元、全連接網(wǎng)絡(luò)之類的基礎(chǔ)結(jié)構(gòu),想必每個(gè)AI學(xué)者都有了解。那么你是否真的了解全連接網(wǎng)絡(luò)中深層與淺層的關(guān)系呢?來(lái)看看wide_deep模型吧。這篇論文會(huì)使你對(duì)全連接有個(gè)更深刻的理解。

關(guān)于該模型的更多介紹可以參考論文:

https://arxiv.org/pdf/1606.07792.pdf

wide_deep模型中,wide模型和deep模型具有各自不同的分工。

wide模型:一種淺層模型。它通過(guò)大量的單層網(wǎng)絡(luò)節(jié)點(diǎn),實(shí)現(xiàn)對(duì)訓(xùn)練樣本的高度擬合性。它的缺點(diǎn)是泛化能力很差。

deep模型:一種深層模型。它通過(guò)多層的非線性變化,使模型具有很好的泛化性。它的缺點(diǎn)是擬合度欠缺。

將二者結(jié)合起來(lái)——用聯(lián)合訓(xùn)練方法共享反向傳播的損失值來(lái)進(jìn)行訓(xùn)練—可以使兩個(gè)模型綜合優(yōu)點(diǎn),得到最好的結(jié)果。

 

No2  wide_deep模型論文:

為什么Adam被廣泛使用?光會(huì)用可不行,還得把原理看懂。這樣出去噴一噴,才會(huì)顯得更有面子。

Adam的細(xì)節(jié)請(qǐng)參閱論文《Adam: A Method for Stochastic Optimization》,該論文的鏈接網(wǎng)址是:

https://arxiv.org/pdf/1412.6980v8.pdf

 

No3  Targeted Dropout模型論文:

你還再用普通的Dropout嗎?我已經(jīng)開(kāi)始用Targeted Dropout了。比你的又快,又好。你不知道吧,趕緊學(xué)習(xí)一下。

Targeted Dropout不再像原有的Dropout那樣按照設(shè)定的比例隨機(jī)丟棄部分節(jié)點(diǎn),而是對(duì)現(xiàn)有的神經(jīng)元進(jìn)行排序,按照神經(jīng)元的權(quán)重重要性來(lái)丟棄節(jié)點(diǎn)。這種方式比隨機(jī)丟棄的方式更智能,效果更好。更多理論見(jiàn)以下論文:

https://openreview.net/pdf?id=HkghWScuoQ

 

二、圖像分類部分

 

No4  Xception模型論文:

在那個(gè)圖像分類的時(shí)代,谷歌的Xception系列,像x戰(zhàn)警一樣,一個(gè)一個(gè)的打破記錄。其中的技術(shù)也逐漸成為AI發(fā)展的知識(shí)體系。有必要看一下。或許會(huì)對(duì)自己的工作有所啟發(fā)。

詳細(xì)情況請(qǐng)查看原論文《Xception: Deep Learning with Depthwise Separable Convolutions》,該論文網(wǎng)址是:

https://arxiv.org/abs/1610.02357

 

No5  殘差結(jié)構(gòu)論文:

運(yùn)氣好到?jīng)]朋友,現(xiàn)有模型,后完善理論指的就是殘差結(jié)構(gòu)這哥們。他的傳奇導(dǎo)致即使到今天的AI技術(shù),也無(wú)法將它割舍,就來(lái)常微分方程都得拿它比肩。快來(lái)學(xué)學(xué)吧。用處大著呢。好多模型都拿他當(dāng)先鋒。

利用殘差結(jié)構(gòu),可以使得網(wǎng)絡(luò)達(dá)到上百層的深度。詳情請(qǐng)參閱原始論文《Deep ResidualLearning for Image Recognition》,該論文網(wǎng)址是:

https://arxiv.org/abs/1512.03385

 

No6  空洞卷積論文:

NasNet的招牌動(dòng)作,雖然不是出于NASNet,但是卻被人家用得如火純青。有時(shí)不得不驚嘆,機(jī)器設(shè)計(jì)出來(lái)的模型還真實(shí)跟人設(shè)計(jì)的不一樣!

想知道空洞卷積的感受野為什么與層數(shù)呈指數(shù)級(jí)關(guān)系嗎?

細(xì)節(jié)請(qǐng)查看原論文《Multi-scale context aggregation by dilated convolutions》,該論文網(wǎng)址是:

https://arxiv.org/abs/1511.07122v3

 

No7  DenseNet論文:

這個(gè)模型使我想到了“一根筋”,再次證明了只有軸的人才能成大事!令類的模型,神奇的效果,快來(lái)體驗(yàn)一下吧。這可是比華佗還牛的神醫(yī)哦!

有關(guān)DenseNet模型的細(xì)節(jié),請(qǐng)參考原始論文《Densely Connected Convolutional Networks》,該論文的連接是:

https://arxiv.org/abs/1608.06993

 

No8  EfficientNet模型論文:

知道目前位置圖像分類界誰(shuí)是老大嗎? 來(lái),看看這個(gè)!

EfficientNet模型的論文地址如下:

https://arxiv.org/pdf/1905.11946.pdf

 

No9  Grad-CAM模型論文:

如果你能把神經(jīng)元搞得透徹,你也會(huì)想到這個(gè)點(diǎn)子。不想聊太多!一個(gè)字“絕”!這TMD才叫卷積網(wǎng)絡(luò)的可視化!

詳細(xì)情況請(qǐng)參閱論文《Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization》,該論文的鏈接網(wǎng)址是:

https://arxiv.org/pdf/1610.02391.pdf

 

No10  分類模型泛化能力論文:

知道為啥都喜歡使用ResNet模型當(dāng)先鋒嗎?運(yùn)氣好就是運(yùn)氣好!好到大家都喜歡用它,還說(shuō)不出為啥它那么好!反正就是好,不信的話看看這篇論文的實(shí)驗(yàn)結(jié)果。

論文中,在選取模型的建議中,多次提到了ResNet模型。原因是,ResNet模型在Imgnet數(shù)據(jù)集上輸出的特征向量所表現(xiàn)的泛化能力是最強(qiáng)的。具體可以參考以下論文:

https://arxiv.org/pdf/1805.08974.pdf

 

三、批量正則化部分

 

No11  批量正則化論文:

 

這個(gè)沒(méi)的說(shuō),必修課,不懂的化,會(huì)被鄙視成渣渣!

論文《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》,該論文網(wǎng)址是:

https://arxiv.org/abs/1502.03167

 

No12  實(shí)例歸一化論文:

時(shí)代不同了,批量歸一化也升級(jí)了,趕緊學(xué)學(xué)新的歸一化吧。

在對(duì)抗神經(jīng)網(wǎng)絡(luò)模型、風(fēng)格轉(zhuǎn)換這類生成式任務(wù)中,常用實(shí)例歸一化取代批量歸一化。因?yàn)椋墒饺蝿?wù)的本質(zhì)是——將生成樣本的特征分布與目標(biāo)樣本的特征分布進(jìn)行匹配。生成式任務(wù)中的每個(gè)樣本都有獨(dú)立的風(fēng)格,不應(yīng)該與批次中其他的樣本產(chǎn)生太多聯(lián)系。所以,實(shí)例歸一化適用于解決這種基于個(gè)體的樣本分布問(wèn)題。詳細(xì)說(shuō)明見(jiàn)以下鏈接:

https://arxiv.org/abs/1607.08022

 

No13  ReNorm算法論文:

ReNorm算法與BatchNorm算法一樣,注重對(duì)全局?jǐn)?shù)據(jù)的歸一化,即對(duì)輸入數(shù)據(jù)的形狀中的N維度、H維度、W維度做歸一化處理。不同的是,ReNorm算法在BatchNorm算法上做了一些改進(jìn),使得模型在小批次場(chǎng)景中也有良好的效果。具體論文見(jiàn)以下鏈接:

https://arxiv.org/pdf/1702.03275.pdf

 

No14  GroupNorm算法論文:

GroupNorm算法是介于LayerNorm算法和InstanceNorm算法之間的算法。它首先將通道分為許多組(group),再對(duì)每一組做歸一化處理。

GroupNorm算法與ReNorm算法的作用類似,都是為了解決BatchNorm算法對(duì)批次大小的依賴。具體論文見(jiàn)下方鏈接:

https://arxiv.org/abs/1803.08494

 

No15  SwitchableNorm算法論文:

我們國(guó)人做產(chǎn)品都喜歡這么干!all in  one  ,好吧。既然那么多批量歸一化的方法。來(lái),來(lái),來(lái),我們來(lái)個(gè)all in one吧。不服來(lái)辯,我這啥都有!

SwitchableNorm算法是將BN算法、LN算法、IN算法結(jié)合起來(lái)使用,并為每個(gè)算法都賦予權(quán)重,讓網(wǎng)絡(luò)自己去學(xué)習(xí)歸一化層應(yīng)該使用什么方法。具體論文見(jiàn)下方鏈接:

https://arxiv.org/abs/1806.10779

 

四、注意力部分

 

No16  大道至簡(jiǎn)的注意力論文:

AI搞成玄學(xué)也就算了!居然還扯到道家了!谷歌的工程師真實(shí)中外通吃啊!搞出來(lái)了一個(gè)只用注意力就能做事的模型,連卷積都不要了!你所好玩不好玩!至簡(jiǎn)不至簡(jiǎn)!刺激不刺激!

 

大名鼎鼎的Attention is All You Need 注意力機(jī)制論文

注意力機(jī)制因2017年谷歌的一篇論文Attention is All You Need而名聲大噪。下面就來(lái)介紹該技術(shù)的具體內(nèi)容。如果想了解更多,還可以參考原論文,具體地址如下:

https://arxiv.org/abs/1706.03762

 

No17-18  孿生注意力論文:

好比LSTM與GRU一樣,注意力他們家也除了一對(duì)雙胞胎,長(zhǎng)得略微有點(diǎn)不同。但是功能一樣,都能吃能喝,還能注意。老虎老鼠傻傻的不清楚!

—BahdanauAttention:https://arxiv.org/abs/1409.0473。

—LuongAttention:https://arxiv.org/abs/1508.04025。

 

No19  各自升級(jí)的孿生注意力論文:

話說(shuō)這對(duì)雙胞胎,出生后就分開(kāi)了。各自學(xué)的不同的語(yǔ)言,一個(gè)學(xué)習(xí)漢語(yǔ),一個(gè)學(xué)習(xí)中文。若干年后,見(jiàn)面,發(fā)現(xiàn)二者的能力還是一樣!

BahdanauAttention注意力升級(jí)成了normed_BahdanauAttention,而LuongAttention注意力升級(jí)成了scaled_LuongAttention。都一樣的效果,你愛(ài)用哪個(gè)用哪個(gè)吧!

例如:

BahdanauAttention類中有一個(gè)權(quán)重歸一化的版本(normed_BahdanauAttention),它可以加快隨機(jī)梯度下降的收斂速度。在使用時(shí),將初始化函數(shù)中的參數(shù)normalize設(shè)為True即可。

具體可以參考以下論文:

https://arxiv.org/pdf/1602.07868.pdf

 

No20  單調(diào)注意力機(jī)制論文:

老公主動(dòng)表忠心,我以后不看別的美女。老婆覺(jué)得不夠,再加個(gè)限制:你以后不準(zhǔn)看別的女人!于是單調(diào)注意力就出來(lái)了。

單調(diào)注意力機(jī)制(monotonic attention),是在原有注意力機(jī)制上添加了一個(gè)單調(diào)約束。該單調(diào)約束的內(nèi)容為:

1)假設(shè)在生成輸出序列過(guò)程中,模型是以從左到右的方式處理輸入序列的。

2)當(dāng)某個(gè)輸入序列所對(duì)應(yīng)的輸出受到關(guān)注時(shí),在該輸入序列之前出現(xiàn)的其他輸入將不能在后面的輸出中被關(guān)注。

即已經(jīng)被關(guān)注過(guò)的輸入序列,其前面的序列中不再被關(guān)注。

更多描述可以參考以下論文:

https://arxiv.org/pdf/1704.00784.pdf

 

No21  混合注意力機(jī)制論文:

這個(gè)注意力很強(qiáng)大,比一般的注意力專注的地方更多,信息更豐富。我已經(jīng)注意你很久了!呵呵呵~~~

因?yàn)榛旌献⒁饬χ泻形恢眯畔ⅲ运梢栽谳斎胄蛄兄羞x擇下一個(gè)編碼的位置。這樣的機(jī)制更適用于輸出序列大于輸入序列的Seq2Seq任務(wù),例如語(yǔ)音合成任務(wù)。

具體可以參考以下論文:

https://arxiv.org/pdf/1506.07503.pdf

 

五、高級(jí)的卷積網(wǎng)絡(luò)知識(shí)

 

No22  膠囊網(wǎng)絡(luò)與動(dòng)態(tài)路由的論文:

這是一股為圖像分類降溫的寒風(fēng),深刻而又尖銳的點(diǎn)出了卷積網(wǎng)絡(luò)的硬傷! 從事最大池化再無(wú)翻身之日。

雖然膠囊網(wǎng)絡(luò)再實(shí)際應(yīng)用中,不像它的理論那么牛,但是對(duì)AI的幫助,卷積的理解是革命性的。非常值得一讀。另外,這也是一篇絕對(duì)讓你對(duì)數(shù)學(xué)徹底絕望的論文。花幾根白頭發(fā)把里面的算法啃下來(lái)吧。這樣你與大神就能更近一步。

膠囊網(wǎng)絡(luò)分為主膠囊與數(shù)字膠囊,主膠囊與數(shù)字膠囊之間的耦合系數(shù)是通過(guò)訓(xùn)練得來(lái)的。在訓(xùn)練過(guò)程中,耦合系數(shù)的更新不是通過(guò)反向梯度傳播實(shí)現(xiàn)的,而是采用動(dòng)態(tài)路由選擇算法完成的。該算法來(lái)自以下論文鏈接:

https://arxiv.org/pdf/1710.09829.pdf

目前膠囊網(wǎng)絡(luò)的研究還處于初級(jí)階段,隨著人們研究的深入,相信這些問(wèn)題會(huì)得到解決。

 

No23  矩陣膠囊網(wǎng)絡(luò)與EM路由算法:

如果你覺(jué)得不過(guò)癮,那么還可以再看一篇。繼續(xù)自虐一下。

帶有EM(期望最大化)路由的矩陣膠囊網(wǎng)絡(luò)是動(dòng)態(tài)路由膠囊網(wǎng)絡(luò)的一個(gè)改進(jìn)版本。論文鏈接如下:

https://openreview.net/pdf?id=HJWLfGWRb

 

No24  膠囊網(wǎng)絡(luò)的其它用處:

膠囊網(wǎng)絡(luò)混身是寶,但就是自己不爭(zhēng)氣。這也說(shuō)明還有上升的空間。就拿其中一個(gè)動(dòng)態(tài)路由算法來(lái)講,居然比普通的注意力還好。

看完之后,相信你一定會(huì)手癢!要不要也試試?把你的注意力換一下。值得你嘗試,會(huì)有彩蛋的!

該論文的實(shí)踐也證明,與原有的注意力機(jī)制相比,動(dòng)態(tài)路由算法確實(shí)在精度上有所提升。具體介紹可見(jiàn)以下論文:

https://arxiv.org/pdf/1806.01501.pdf

 

No25  卷積網(wǎng)絡(luò)新玩法TextCNN模型:

早先小編在一個(gè)項(xiàng)目中,自己用卷積網(wǎng)絡(luò)處理字符數(shù)據(jù)。自己感覺(jué)很Happy。沒(méi)想到,無(wú)意間居然發(fā)現(xiàn)了一篇同樣這么干的論文。居然還有個(gè)名字,叫TextCNN。哎!可惜啊!小編文化少,只會(huì)寫代碼,不會(huì)寫論文。

TextCNN模型是利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)文本進(jìn)行分類的算法,由 Yoon Kim 在 Convolutional Neural Networks for Sentence Classification 一文中提出。論文地址:

https://arxiv.org/pdf/1408.5882.pdf

 

六、圖像內(nèi)容處理部分

 

No26  FPN模型論文(包含了ROIAlign的匹配算法):

要是搞計(jì)算機(jī)視覺(jué),還是要建議看一下。非常的基礎(chǔ)。也是圖像分割方面的用得最多得模型。

FPN的原理是:將骨干網(wǎng)絡(luò)最終特征層和中間特征層的多個(gè)尺度的特征以類似金字塔的形式融合在一起。最終的特征可以兼顧兩個(gè)特點(diǎn)——指向收斂目標(biāo)的特征準(zhǔn)確、特征語(yǔ)義信息豐富。更多信息可以參考論文:

ROIAlign層中的匹配算法也來(lái)自于這篇FPN論文,鏈接如下:

https://arxiv.org/abs/1612.03144

 

No27 Mask R-CNN模型論文:

效果好,代碼多!硬貨!來(lái)啃吧!

Mask R-CNN模型是一個(gè)簡(jiǎn)單、靈活、通用的對(duì)象實(shí)例分割框架。它能夠有效地檢測(cè)圖像中的對(duì)象,并為每個(gè)實(shí)例生成高質(zhì)量的分割掩碼,還可以通過(guò)增加不同的分支完成不同的任務(wù)。它可以完成目標(biāo)分類、目標(biāo)檢測(cè)、語(yǔ)義分割、實(shí)例分割、人體姿勢(shì)識(shí)別等多種任務(wù)。具體細(xì)節(jié)可以參考以下論文:

https://arxiv.org/abs/1703.06870

 

No28  YOLO V3模型論文:

這個(gè)模型的提點(diǎn)就是快!目標(biāo)識(shí)別強(qiáng)烈推薦

YOLO V3模型的更多信息可以參考以下鏈接中的論文:

https://pjreddie.com/media/files/papers/YOLOv3.pdf

 

No29  Anchor-Fress模型--FCOS模型論文:

隨著AI技術(shù)的進(jìn)步Anchor-Fress模型死灰復(fù)燃(早先是YOLO V1那一批模型),這次不一樣的是徹底干掉帶Anchor的模型。訓(xùn)練起來(lái)那就一個(gè)爽!媽媽再也不用為我準(zhǔn)備單獨(dú)的Anchor標(biāo)簽了。

YOLO V1相比, FCOS模型的思想與YOLO V1模型非常相似,唯一不同的是FCOS模型沒(méi)有像YOLOv1那樣只考慮中心附近的點(diǎn),而是利用了ground truth邊框中所有的點(diǎn)來(lái)進(jìn)行預(yù)測(cè)邊框。并且通過(guò) center-ness 分支來(lái)抑制那些效果不行的檢測(cè)邊框。這樣FCOS 就可以改善YOLO V1模型總會(huì)漏掉部分檢測(cè)邊框的缺點(diǎn)。

相關(guān)論文地址:

https://arxiv.org/abs/1904.01355

 

No30  Anchor-Fress模型--CornerNet-Lite模型論文:

一樣也是Anchor-Fress模型,與FCOS效果差不多少,具體看一下論文吧

CornerNet-Lite模型。相關(guān)論文地址:

https://arxiv.org/pdf/1904.08900.pdf

 

No31  棧式沙漏網(wǎng)絡(luò)模型--Hourglass論文:

 

最初用戶人的姿態(tài)估計(jì),在符合模型中也是常被使用的模型。論文地址:

https://arxiv.org/abs/1603.06937

 

No32  OCR必修課——STN模型論文:

可以讓模型自動(dòng)仿射變化,你說(shuō)牛不牛!要學(xué)OCR,就得從這個(gè)開(kāi)始。

有關(guān)STN模型的論文鏈接如下:

https://arxiv.org/abs/1506.02025

 

七、循環(huán)神經(jīng)網(wǎng)絡(luò)部分

 

No33  QRNN模型論文:

RNN模型的cell里,如果還只知道LSTM和GRU。那就太low了。快了補(bǔ)補(bǔ)吧:

如果想更多了解QRNN,可以參考以下論文:

https://arxiv.org/abs/1611.01576

 

No34  SRU模型論文:

接著來(lái),各種RNN的Cell。又漂亮,又好吃!

SRU單元在本質(zhì)上與QRNN單元很像。從網(wǎng)絡(luò)構(gòu)建上看,SRU單元有點(diǎn)像QRNN單元中的一個(gè)特例,但是又比QRNN單元多了一個(gè)直連的設(shè)計(jì)。

若需要研究SRU單元更深層面的理論,可以參考如下論文:

https://arxiv.org/abs/1709.02755

 

No35  IndRNN模型論文:

再補(bǔ)一個(gè),這可都是好cell啊!

IndRNN單元配合ReLu等非飽和激活函數(shù)一起使用,會(huì)使模型表現(xiàn)出更好的魯棒性。

有關(guān)IndRNN單元的更多理論,可以參考論文:

https://arxiv.org/abs/1803.04831

 

No36  IndRNN模型論文:

最后,再來(lái)一個(gè)cell,如想要了解更多關(guān)于JANET單元的內(nèi)容,可以參考以下論文:

https://arxiv.org/abs/1804.04849

 

八、AI合成部分

 

No37-38  TacotronTacotron-2模型論文:

AI合成部分的經(jīng)典模型,以上結(jié)構(gòu)來(lái)自Tacotron與Tacotron-2兩個(gè)結(jié)構(gòu),更多內(nèi)容可以參考以下兩篇論文:

https://arxiv.org/pdf/1703.10135.pdf

https://arxiv.org/pdf/1712.05884.pdf

 

No39  DeblurGAN模型論文:

圖片合成的論文太多了。這里簡(jiǎn)單列幾個(gè),大體原理和思路了解,即可。

DeblurGAN模型是一個(gè)對(duì)抗神經(jīng)網(wǎng)絡(luò)模型,由生成器模型和判別器模型組成。

—生成器模型,根據(jù)輸入的模糊圖片模擬生成清晰的圖片。

—判別器模型,用在訓(xùn)練過(guò)程中,幫助生成器模型達(dá)到更好的效果。

具體可以參考論文:

https://arxiv.org/pdf/1711.07064.pdf。

 

No40  AttGAN模型論文:

同樣,這也是個(gè)圖片合成的。不同的是多屬性合成,相對(duì)比較有意思。

AttGAN模型由兩個(gè)子模型組成:

1)利用編碼器模型將圖片特征提取出來(lái)。

2)將提取的特征與指定的屬性值參數(shù)一起輸入編碼器模型中,合成出最終的人臉圖片。

更多細(xì)節(jié)可以參考論文:

https://arxiv.org/pdf/1711.10678.pdf

 

No41  RNN.WGAN模型論文:

可以合成文本的GAN。離散數(shù)據(jù)也能干!

RNN.WGAN模型使用了WGAN模型的方法進(jìn)行訓(xùn)練。詳細(xì)做法可以參考如下論文:

https://arxiv.org/abs/1704.00028

 

九、多任務(wù)學(xué)習(xí)

 

No42  MKR模型論文:

多任務(wù)學(xué)習(xí)模型有必要了解一下。這里推薦一個(gè)論文給你看看。

MKR是一個(gè)多任務(wù)學(xué)習(xí)的端到端框架。該框架能夠?qū)蓚(gè)不同任務(wù)的低層特征抽取出來(lái),并融合在一起實(shí)現(xiàn)聯(lián)合訓(xùn)練,從而達(dá)到最優(yōu)的結(jié)果。有關(guān)MKR的更多介紹可以參考以下鏈接:

https://arxiv.org/pdf/1901.08907.pdf

 

十、NLP部分

 

No43  BERT模型論文:

如果你搞NLP,那么這個(gè)就不用我來(lái)介紹了。如果你準(zhǔn)備搞NLP,那么趕緊來(lái)看看這個(gè),跟上時(shí)代。

BERT相關(guān)論文鏈接

https://arxiv.org/abs/1810.04805

BERT之后,又出了好多優(yōu)秀的模型。但是,還是先把這個(gè)啃下來(lái),再看別的才不費(fèi)勁。

 

十一、模型攻防

 

No44  FGSM模型論文:

攻擊模型的經(jīng)典方法。值得掌握。

FGSM(Fast Gradient Sign Method)是一種生成對(duì)抗樣本的方法。該方法的描述如下:

1)將輸入圖片當(dāng)作訓(xùn)練的參數(shù),使其在訓(xùn)練過(guò)程中可以被調(diào)整。

2)在訓(xùn)練時(shí),通過(guò)損失函數(shù)誘導(dǎo)模型對(duì)圖片生成錯(cuò)誤的分類。

3)當(dāng)多次迭代導(dǎo)致模型收斂后,訓(xùn)練出來(lái)的圖片就是所要得到的對(duì)抗樣本。

具體可以參考論文:

https://arxiv.org/pdf/1607.02533.pdf

 

No45  黑箱攻擊論文:

基于雅可比(Jacobian)矩陣的數(shù)據(jù)增強(qiáng)方法,是一種常用的黑箱攻擊方法。該方法可以快速構(gòu)建出近似于被攻擊模型的決策邊界,從而使用最少量的輸入樣本。即:構(gòu)建出代替模型,并進(jìn)行后續(xù)的攻擊操作。

詳細(xì)請(qǐng)見(jiàn)如下鏈接:

https://arxiv.org/abs/1602.02697

 

這里只是列了一些基礎(chǔ)的論文。如果這45篇論文看完。可以保證你再看到大廠的產(chǎn)品時(shí),不會(huì)感覺(jué)有代溝。

 

聯(lián)系:highspeedlogic

QQ :1224848052

微信:HuangL1121

郵箱:1224848052@qq.com

網(wǎng)站:http://www.mat7lab.com/

網(wǎng)站:http://www.hslogic.com/

微信掃一掃:


--------------------------------------------------------------------------------------

人工智能代做,深度學(xué)習(xí)代做,深度強(qiáng)化學(xué)習(xí)代做,zynq智能系統(tǒng)FPGA開(kāi)發(fā),

AI代做,卷積神經(jīng)網(wǎng)絡(luò),Alexnet,GoogleNet,CNN,TensorFlow,

caffepointnet,PPO,Qlearning,F(xiàn)asterRCNN,MTCNN,

SPPNet,word2vec,SARASA算法,梯度策略等等 


   上一篇: MATLAB代做|FPGA代做|simulink代做——三維深度學(xué)習(xí)    下一篇:    
   相關(guān)閱讀
· MATLAB代做|FPGA代做|simulink代做—— 2020/7/14
· MATLAB代做|FPGA代做|simulink代做—— 2020/5/30
· MATLAB代做|FPGA代做|simulink代做—— 2020/5/30
· MATLAB代做|FPGA代做|simulink代做—— 2020/2/1
· MATLAB代做|FPGA代做|simulink代做—— 2019/12/11
· MATLAB代做|FPGA代做|simulink代做—— 2019/12/11
· MATLAB代做|FPGA代做|simulink代做—— 2019/12/11
· Alexnet網(wǎng)絡(luò)結(jié)構(gòu) 2019/11/20
· MATLAB代做|FPGA代做|simulink代做—— 2019/9/15
· MATLAB代做|FPGA代做|simulink代做—— 2019/8/29
Copyright 2017-2025 © 嘉興麥特萊博軟件開(kāi)發(fā)工作室
  • 網(wǎng)站備案號(hào):浙ICP備18008591號(hào)-1