本文摘要:摘要:基于深度學(xué)習(xí)的目標檢測算法已成為合成孔徑雷達圖像目標檢測任務(wù)的主流。深層網(wǎng)絡(luò)通常具有大量參數(shù),運行速度不能滿足實時要求,難以在資源受限的設(shè)備如移動端上部署。考慮到對模型實時性和可移植性的要求,對雙階段目標檢測算法快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)
摘要:基于深度學(xué)習(xí)的目標檢測算法已成為合成孔徑雷達圖像目標檢測任務(wù)的主流。深層網(wǎng)絡(luò)通常具有大量參數(shù),運行速度不能滿足實時要求,難以在資源受限的設(shè)備如移動端上部署。考慮到對模型實時性和可移植性的要求,對雙階段目標檢測算法快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)進行輕量化改進,比較不同改進方法對算法速度與精度的影響。結(jié)合合成孔徑雷達圖像的特點對輕量化模型進行優(yōu)化,與單階段目標檢測算法單脈沖多盒檢測網(wǎng)絡(luò)進行對比。實驗結(jié)果表明,改進輕量化模型在保持原有精度水平下,模型占用內(nèi)存和算法運算量大大減少,可有效滿足SAR圖像目標檢測的實時性要求。
關(guān)鍵詞:目標檢測;快速卷積神經(jīng)網(wǎng)絡(luò);合成孔徑雷達;量化算法;實時性
引言合成孔徑雷達[1](SAR)是利用飛行載體的運動將有限尺寸的天線單元等效為一個大孔徑虛擬天線,即合成孔徑原理,再經(jīng)過SAR成像算法計算獲取的距離向和方位向的目標雷達圖像。SAR廣泛應(yīng)用于軍事偵察、地形測繪、海洋監(jiān)測、地質(zhì)環(huán)境勘探等領(lǐng)域。但AR圖像在應(yīng)用上還存在很多問題,由于SAR圖像成像特性不同于光學(xué)圖像,同樣的目標信息在光學(xué)圖像和SAR圖像中表現(xiàn)完全不同,使閱讀SAR圖像變得困難,同時SAR圖像受背景環(huán)境的復(fù)雜性和目標的多變性影響較大,對SAR圖像進行信息提取和目標檢測也就存在很多難點。
因此,對AR圖像檢測算法的研究變得極其重要,而且隨著SAR成像技術(shù)的發(fā)展,單幅圖像的特征信息數(shù)量隨分辨率的提高而增加,如何提高圖像檢測算法的效率和實時性成為AR圖像研究的重點。傳統(tǒng)SAR圖像目標檢測算法可分為以下兩類:第一是基于統(tǒng)計檢測理論的恒虛警率目標檢測算法,Sahal等[3]提到了基于貝葉斯理論首次將恒虛警率算法應(yīng)用于高斯背景雜波統(tǒng)計下的雷達信號檢測,Abbadi等[4]提到了進一步將恒虛警率算法擴展應(yīng)用于正態(tài)分布和韋布分布統(tǒng)計下的雷達信號檢測,使恒虛警率算法可應(yīng)用于多種背景雜波統(tǒng)計下的雷達圖像。
但基于背景雜波的統(tǒng)計特性并不能適應(yīng)背景雜波分布復(fù)雜、受斑點噪聲嚴重的情況,算法在復(fù)雜場景下的檢測性能還有待于進一步提升。第二是基于尺寸、紋理、形狀等特征的目標檢測方法,如擴展分形特征、尺度不變特征變換、稀疏表示等,該方法能有效針對SAR圖像特征進行提取,但存在運算量大且效率低的問題。
近年來,隨著深度學(xué)習(xí)理論和計算機技術(shù)的發(fā)展,目標檢測領(lǐng)域逐漸開始利用深度學(xué)習(xí)來做研究,其算法主要分為兩類:一類是由區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(RCNN)發(fā)展而來的兩階段目標檢測算法,以快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(asterRCNN)為代表,第二類是以單脈沖多盒檢測網(wǎng)絡(luò)[1(SSD)為代表的單階段目標檢測算法。對比兩種檢測算法,兩階段目標檢測算法雖然精度較高,但需要多次運行分類回歸流程,檢測實時性較差,而單階段目標檢測算法可一次性進行分類回歸,但同時誤檢率較高。本文針對雙階段目標檢測算法檢測效率低、模型復(fù)雜的問題,選用針對算法缺陷和SAR圖像的特點,對FasterRCNN算法進行優(yōu)化,以降低模型復(fù)雜度、提高檢測性能。最后與單階段檢測算法SSD進行對比,并通過實驗檢驗優(yōu)化效果。
1目標檢測算法
1.1Faster-RCNN算法原理
RCNN系列[1的目標檢測算法有個基本步驟,分別是特征提取、候選區(qū)域生成、目標分類和位置回歸。
從模型架構(gòu)可以看出,F(xiàn)asterRCNN相當(dāng)于RPN與FastRCNN網(wǎng)絡(luò)的集合。FasterRCNN網(wǎng)絡(luò)有兩種訓(xùn)練方式12,第一類是交替訓(xùn)練方式,訓(xùn)練過程分為個階段:
1)訓(xùn)練特征提取網(wǎng)絡(luò)和RPN,得到特征圖和區(qū)域建議框,權(quán)重采用ImageNet預(yù)訓(xùn)練模型初始化;2)利用生成的區(qū)域建議框訓(xùn)練FastRCNN,得到新的特征圖、分類得分以及位置偏移;3)固定特征提取網(wǎng)絡(luò),利用第步輸出的參數(shù)初始化RPN,生成新的區(qū)域建議框,最后進行分類回歸,微調(diào)檢測結(jié)果。第二類是近似聯(lián)合訓(xùn)練方式,訓(xùn)練過程分為個階段:4)訓(xùn)練特征提取網(wǎng)絡(luò)和RPN,生成共享特征圖和區(qū)域建議框,權(quán)重采用ImageNet預(yù)訓(xùn)練模型初始化;)在共享特征圖的基礎(chǔ)上利用生成的區(qū)域建議框進行分類回歸;5)將第步的區(qū)域建議框和第步的分類得分、位置偏移合并輸入FasterRCNN模型聯(lián)合訓(xùn)練。交替訓(xùn)練方式在RPN訓(xùn)練結(jié)束后,會存儲所有訓(xùn)練圖片的區(qū)域建議框,占用了極大的內(nèi)存空間。而近似聯(lián)合訓(xùn)練將RPN產(chǎn)生區(qū)域建議框直接送入FastRCNN網(wǎng)絡(luò),節(jié)省了大量內(nèi)存,在訓(xùn)練過程中只訓(xùn)練一個權(quán)重網(wǎng)絡(luò),訓(xùn)練速度有可觀的提升,而訓(xùn)練精度不變。
1.2SSD算法原理
基于區(qū)域建議框和分類回歸的目標檢測方法中,CN系列算法取得了優(yōu)異的結(jié)果,但是在速度方面離實時要求還相差較遠。SSD網(wǎng)絡(luò)通過均勻地在特征提取網(wǎng)絡(luò)生成多個尺寸的特征圖上進行密集抽樣,抽樣時可以采用不同尺度和長寬比的目標檢測框,然后對不同尺度的目標檢測框進行分類與回歸,最后經(jīng)過非極大值抑制來抑制掉一部分重疊的目標檢測框,將不同特征圖獲得的目標檢測框結(jié)合起來,生成最終的檢測結(jié)果。整個過程只需要一步,其優(yōu)勢是檢測速度快。
2Faster-RCNN算法改進
2.1特征提取網(wǎng)絡(luò)優(yōu)化
2.1.1CNN模型
CNN14]是一種包含卷積的深度神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)包括卷積層、池化層、全連接層和激活函數(shù)。在CNN中,輸入圖像可看作由像素組成的矩陣,卷積操作可以看做一個帶權(quán)重的濾波器即卷積核。對矩陣進行內(nèi)積計算,不同濾波器會得到不同的輸出數(shù)據(jù),代表著顏色、輪廓等特征,多個卷積核疊加可組成卷積層,圖像經(jīng)過卷積層可提取不同位置,不同類型的特征向量集。自CNN應(yīng)用在計算機視覺以來,為了獲得更高的準確率,卷積網(wǎng)絡(luò)的層數(shù)逐漸從AlexNet的層增加到ResNet的152層。
網(wǎng)絡(luò)層次越深,特征的抽象程度就越高,從而神經(jīng)網(wǎng)絡(luò)可以完成更多需要高度抽象理解能力的工作。然而神經(jīng)網(wǎng)絡(luò)并不是越深越好,網(wǎng)絡(luò)層次的加深使得網(wǎng)絡(luò)占用的內(nèi)存和運行空間增加,會影響網(wǎng)絡(luò)的運行速度。因此在選擇卷積網(wǎng)絡(luò)時,網(wǎng)絡(luò)的模型大小和特征提取能力需要綜合考量。FasterRCNN網(wǎng)絡(luò)一般選取VGG16作為其特征提取網(wǎng)絡(luò),VGG16網(wǎng)絡(luò)結(jié)構(gòu)簡潔規(guī)整,容易修改遷移到其他任務(wù)中且網(wǎng)絡(luò)層數(shù)較淺,常作為高層任務(wù)的基礎(chǔ)網(wǎng)絡(luò)。但是VGG16網(wǎng)絡(luò)還是很難滿足在有限計算資源平臺上做出及時反應(yīng)的要求。
2.2RPN優(yōu)化
在區(qū)域建議框生成初始階段,RPN以輸入特征圖的每個像素點為中心生成個面積和長寬比不同的錨框,后每個框會生成個分類得分和個位置偏移,從而帶來大量的計算量,影響運行速度。因此對RPN進行輕量化改進尤為重要。當(dāng)RPN和改進的輕量型特征提取網(wǎng)絡(luò)耦合時,會引起網(wǎng)絡(luò)參數(shù)不平衡,增加過度擬合風(fēng)險。為解決這一問題,本文首先使用深度可分離卷積(DSC)代替RPN的×卷積。
2.3FastRCNN網(wǎng)絡(luò)優(yōu)化
FastRCNN網(wǎng)絡(luò)利用VGG網(wǎng)絡(luò)的后幾層,在特征分類回歸前將感興趣區(qū)域池化輸出送入兩層全連接層,全連接層是將所有神經(jīng)元參數(shù)進行連接計算,全連接層將卷積輸出的二維特征圖轉(zhuǎn)化成一維的向量,對于×特征圖,將生成16個神經(jīng)元,帶來最直觀的問題就是參數(shù)爆炸與冗余。雖然在全連接前進行了Dropout操作、減少了部分神經(jīng)元,但同時也丟失大量信息,使網(wǎng)絡(luò)收斂變慢。參考nception網(wǎng)絡(luò),本文采用全局平均池化代替全連接層以融合學(xué)到的深度特征。全局平均池化將特征圖看為一個整體,在保留前面各個卷積層和池化層提取到的特征信息的同時,還減少了模型中的參數(shù)數(shù)量,降低了過度擬合的風(fēng)險。
3改進網(wǎng)絡(luò)檢測實驗
3.1實驗平臺參數(shù)
處理器為英特爾i79750H;顯卡為NVIDIAGeForceGTX1650Ti,顯存為4G;系統(tǒng)為Windows103.2數(shù)據(jù)集實驗數(shù)據(jù)集選用MSTAR數(shù)據(jù)集,MSTAR數(shù)據(jù)集是通過高分辨率的聚束式SAR采集的多種前蘇聯(lián)目標軍事車輛的SAR圖像合集。本算法數(shù)據(jù)集中SAR圖片大小為224×224像素,共162張,包含10類目標,分別為2S1(自行榴彈炮)、BMP2(步兵戰(zhàn)車)、BRDM2(裝甲偵察車)、BTR60(裝甲運輸車)、BTR70(裝甲運輸車)、D7(推土機)、T62(坦克)、T72(坦克)、ZIL131(貨運卡車)、ZSU234(自行高炮)。
數(shù)據(jù)智能化論文投稿刊物:自動化學(xué)報是自動化科學(xué)與技術(shù)領(lǐng)域的高級學(xué)術(shù)期刊。雜志是1963年創(chuàng)刊的,在1966年-1978年是停刊狀態(tài),1979年才復(fù)刊發(fā)行,現(xiàn)為大16開本,月刊,每期112頁。科學(xué)出版社與Elsevier合作出版,國內(nèi)外公開發(fā)行。
4結(jié)論
本文針對現(xiàn)有目標檢測技術(shù)不能兼顧檢測精度與速度的問題,對FasterRCNN目標檢測算法進行了改進優(yōu)化。首先使用深度可分離卷積設(shè)計特征提取網(wǎng)絡(luò),降低了基礎(chǔ)模型的參數(shù)量和計算量。然后在SAR圖像真值目標大小的基礎(chǔ)上,對錨框生成尺度進行調(diào)整,并改進非極大值抑制算法,提高目標檢測的精度。最后,利用全局平均池化代替全連接層進行特征分類,將改進后的FastRCNN算法應(yīng)用于SAR圖像的目標檢測任務(wù)中,用MSTAR數(shù)據(jù)集進行訓(xùn)練,并與SSD算法進行對比。經(jīng)檢測驗證,改進后FasterRCNN算法的模型體積和模型運算量均優(yōu)于SD單階段網(wǎng)絡(luò),檢測精度也可保持雙階段檢測算法的水平,改進FasterRCNN的檢測速度從原FasteRCNN算法的0.59張?zhí)嵘秊?.13張,驗證了本文方法在SAR圖像目標檢測任務(wù)中具有較好的表現(xiàn)。
參考文獻(References)
[1]劉燕高分辨率及新模式SAR成像算法研究[D].西安:西安電子科技大學(xué),2012.IUY.ResearchonhighresolutionandewodeSARmaginglgorithm[D].’an:XidianUniversity,2012.(inChinese)
[2]趙明波,何峻,付強.SAR圖像FAR檢測的快速算法綜述[J].自動化學(xué)報,2012,38(12):18851895.HAO, Q.OverviewoffastalgorithmsforSARimageCFARdetection[J].JournalofAutomation,2012,38(12):18851895.(inChinese)
【3】SAHAL,SAIDAZ,PUTRAYR,etal.ComparisonofCFARethodsonultipleargetsinealuttersingSPXRadarSimulator//ProceedingsofInternationalSeminaronIntelligentTechnologyandItsApplicationsSurabaya,IndonesiaIEEE,2020
作者:馬月紅,孔夢瑤
轉(zhuǎn)載請注明來自發(fā)表學(xué)術(shù)論文網(wǎng):http:///nylw/27592.html