湖泊水面雜物收集機器人-打撈河面垃圾(含CAD圖紙)
喜歡這套資料就充值下載吧。。。資源目錄里展示的都可在線預覽哦。。。下載后都有,,請放心下載,,文件全都包含在內,,【有疑問咨詢QQ:1064457796 或 1304139763】 =============================================喜歡這套資料就充值下載吧。。。資源目錄里展示的都可在線預覽哦。。。下載后都有,,請放心下載,,文件全都包含在內,,【有疑問咨詢QQ:1064457796 或 1304139763】 =============================================
1.外文資料翻譯譯文(約3000漢字):
文章
基于深度學習的多光譜圖像融合新方法
樸景春*,陳云帆和HyunchulSine*
漢陽大學電氣工程系,韓國安山15588;chenyunfan@hanyang.ac.kr
*通訊:kcpark1011@hanyang.ac.kr(J.P.);shin@hanyang.ac.kr(HS);
電話:+82-31-400-4083(JP);+82-31-400-5176(H.S.)
收到:2019年5月12日;接受:2019年6月3日;發(fā)布時間:2019年6月5日
摘要:在本文中,我們通過使用深度神經網絡提出了一種新的且有效的紅外(IR)和可見光(VIS)圖像融合方法。在我們的方法中,使用暹羅卷積神經網絡(CNN)自動生成權重圖,該權重圖表示一對源圖像的每個像素的顯著性。卷積神經網絡在將圖像自動編碼到特征域以進行分類中發(fā)揮作用。通過應用所提出的方法,可以一次性解決圖像融合中的關鍵問題,即活動水平測量和融合規(guī)則設計。通過基于小波變換的多尺度圖像分解進行融合,重構結果對人眼視覺系統(tǒng)更具感知力。另外,通過使用公共基準數據集 YOLOv3 對象檢測器和將行人檢測結果與其他方法進行比較,我們評估了所提出的融合方法的視覺定性效果。實驗結果表明,我們提出的方法在定量評估和視覺質量方面均顯示出競爭優(yōu)勢。
關鍵詞:圖像融合;可見光;紅外線;卷積神經網絡;暹羅網絡
1.介紹
利用紅外(IR)和可見光(VIS)圖像融合技術從多個光譜源圖像生成合成圖像,以組合同一場景的互補信息。輸入源圖像是使用不同的參數設置從不同的成像模態(tài)捕獲的。預期的融合圖像比任何單個輸入圖像都更適合人類感知。由于該優(yōu)點,圖像融合技術在圖像處理和計算機視覺領域廣泛的應用以提高人和機器視覺的視覺能力。圖像融合的一般框架是從同一場景的源圖像中提取代表性的顯著特征,然后通過適當的融合方法將這些顯著特征整合到單個圖像中。
紅外圖像受光線,霧氣和煙霧等外部環(huán)境的影響很大。[1,2].但在弱光條件下無法看到可見光圖像的區(qū)域,紅外圖像優(yōu)于可見光圖像。[3,4].普通的可見光成像傳感器能捕獲物體的反射特性,這些特性可以是物體的邊緣和細節(jié)紋理。它們能夠為人類的視覺感知提供信息。如上所述,由于成像機制的差異,紅外和可見光圖像中同一像素位置的強度通常會有明顯的不同。一種好的紅外和可見光圖像融合方法應該能夠同時保留紅外圖像中的熱輻射信息和可見光圖像中的紋理細節(jié)信息。
在過去的十年中,已經提出了許多圖像處理方法來提取顯著特征,例如基于多尺度分解的方法。通常,多尺度分解包括三個步驟,即分解,融合和重建。錐波[5,6],小波[7-9]和剪切波[10-12]是圖像融合中常用的典型多尺度變換。稀疏編碼也是一種流行的圖像編碼方法,也已成功應用于融合多模態(tài)圖像[13-15]。隨著深度學習的興起,使用卷積神經網絡(CNN)或生成性對抗網絡(GAN)[16]已經成為一種趨勢。在[16]中,一種基于生成性對抗網絡的方法同時保留了紅外圖像的輻射信息和可見光圖像中的細節(jié)紋理。該方法的缺點是計算效率低。
圖像融合中最重要的問題之一是計算一個包含來自不同源圖像像素活動信息的加權映射。在大多數現(xiàn)有的圖像融合方法中,有兩方面的目標:即活動水平測量和權重分配。在傳統(tǒng)的變換域融合方法中,分解系數的絕對值之和用于測量活動水平,并根據獲取的測量結果,將“選擇的最大值”或“加權平均值”規(guī)則應用于其他來源。顯然,這種活動性測量和權重分配容易受到多種因素的影響,例如噪音,失真和強度差異。為了提高收斂性,最近的文章[17,18]中提出了幾種活動水平設計和權重分配方法。但是,要設計出可行的活動水平測量或權重分配策略來實際考慮所有收斂的關鍵問題并不容易。此外,在許多融合方法中,這兩個階段是單獨設計的,沒有有效的組合,這極大地限制了算法的性能。
在本文中,我們從不同的角度來解決這一問題,以克服(1)設計穩(wěn)健活動水平測量和(2)權重分配策略的困難。具體來說,它訓練一個卷積神經網絡[19]來將一個圖像色塊編碼為特征,從而將源圖像直接映射到權重圖。CNN是一種多層神經網絡,它與通常的人工神經網絡不同。它通過多層連接學習圖像數據的分層特征表示。具體來說,每個圖層都包含一定數量的特征圖,可以將其視為該圖層中特征維度的大小。特征圖中的每個權重稱為神經元。應用于神經元的操作,例如卷積,激活和最大池,用于連接多層特征圖[19]。
針對圖像融合中的兩個主要困難,我們提出了一種新的基于深度學習的有效的卷積神經網絡模型訓練框架,該框架將活動測量和權重圖生成相結合以進行圖像融合。本文的主要貢獻可歸納如下:
(1)我們設計了一個基于卷積神經網絡的學習方案,以測量活動量并根據源圖像對中每個像素的顯著性自動生成權重圖。
(2)通過使用三階小波變換將源圖像對分解為低頻子帶和高頻子帶,并通過使用縮放后的權重圖重建小波圖像來獲得融合圖像。它產生的不良偽影更少,與人類的視覺感知具有良好的一致性。
(3)我們從數量和質量兩個角度系統(tǒng)地分析了實驗結果。對12個基準數據進行了定量評估,并將結果與18種代表性現(xiàn)有技術方法的結果進行了比較。此外,通過在公共基準數據集上使用YOLOv3對象檢測器比較融合后的行人檢測結果,評估了所提出融合方法的視覺定性效果。
2.相關作品
[20]中概述了最新的紅外和可見光圖像融合技術。近年來,圖像融合技術已成為一個熱門的研究領域,紅外和可見光圖像融合技術是其中至關重要的組成部分。根據所使用的算法,通??梢詫⑺鼈兎譃槿箢悾合袼丶?,特征級和決策級。
首先,基于像素級的方法可以分為基于空間域的方法和基于變換域的方法。典型的基于空間域的算法有加權平均法和基于塊的方法。著名的基于變換的紅外和可見光融合的算法有錐波,輪廓波,非下采樣剪切波變換以及其他基于分解和重建的方法。除了上述方法外,還有其他多種紅外和可見光圖像融合方法,例如稀疏表示(SR),馬爾可夫隨機場(MRF)和基于主成分分析的方法?;谙袼丶壍姆椒ㄊ钦麄€圖像融合領域的一個研究熱點。
其次,基于特征級的方法依靠圖像的合成特征和結構特征,例如邊緣,角點和紋理,來分割圖像或從圖像的局部區(qū)域獲得目標分布信息。然后,運用一定的融合規(guī)則,從源圖像中提取信息并進行組合。典型的方法有基于對象檢測,邊緣提取,顯著圖提取和圖像分割。基于特征級的融合方法需要手動選擇特征以及人工設計融合規(guī)則,并且融合性能高度依賴于特征和融合規(guī)則。
第三,決策級融合是這三個級別中最先進的選項,它根據設計的融合規(guī)則,基于判別信息對目標進行融合。該融合決策基于學習的分類器,而分類器通常量化分類的可靠性。決策級的缺點是對分類結果的檢測高度依賴。
本文的其余部分安排如下。第3節(jié)介紹了基于活動水平自動測量和權重圖生成的圖像融合方案。第4節(jié)討論了性能評估和結果分析。最后,第5節(jié)總結了結論。
3.基于活動水平自動測量和權重圖生成的融合方案
本工作的目的是開發(fā)一個基于卷積神經網絡的學習方案來測量活動水平,并根據源圖像中每個像素的顯著性屬性自動生成權重圖。在這項工作中,我們主要關注紅外和可見光圖像預注冊的情況。從圖1可以看出本文提出的方法包括三個主要步驟:(1)通過訓練暹羅網絡生成卷積神經網絡模型,(2)從一對紅外和可見光圖像生成權重圖,以及(3)圖像分解和圖像重建。我們設計了一種基于卷積神經網絡的訓練方案,以生成兩類分類模型,該模型可以計算每一類的概率。大量大小為16×16的紅外和可見光圖像色塊用作訓練數據集。在權重圖生成階段,輸入的是一對紅外和可見光圖像,并使用訓練后的卷積神經網絡模型為該圖像對生成權重圖。權重圖是訓練階段的輸出。將輸入圖像對分解為低頻子帶和高頻子帶,并縮放權重圖以平均分解后的圖像對。最后,通過加權平均和重建生成融合圖像。
3.1CNN設計
在本研究中,我們將紅外和可見光圖像融合視為兩類分類任務。目的是通過訓練卷積神經網絡模型來生成范圍為0到1的權重圖。權重圖中的系數可以看作是表示加權平均步驟中源圖像中每個對應像素強度值的部分的融合規(guī)則。圖2顯示了所提出方法的權重圖生成方案。輸入圖像對通過暹羅網絡進行編碼,并為其賦予一個代表每個源(VIS或IR)的顯著性的分數。然后,使用Softmax計算的概率成為權重圖中的權重值。紅外圖像中具有熱輻射信息的像素或可見圖像中屬于細節(jié)紋理的像素獲得更高的概率。通過使用預先訓練的卷積神經網絡模型,計算出與輸入圖像對大小相同的權重圖。在權重圖W中,較亮的像素表示接近1的值,而較暗的像素表示接近0的值。例如,如果權重圖中的pixel(x,y)的值為0.95,則IR的權重像素為95%,在(x,y),VIS像素的權重為5%。平均像素值由IR_VIS(x,y)=IR(x,y)*W(x,y)+VIS(x,y)*(1-W(x,y))計算得出,其中IR_VIS(x,y),IR(x,y),VIS(x,y)和W(x,y)表示加權平均圖像,IR圖像,VIS圖像的像素值以及在某個位置(x,y)。
在這項工作中,選擇了一個暹羅神經網絡作為深度學習模型。暹羅神經網絡被設計為孿生網絡,它們的最后一層通過距離層連接,該距離層經過訓練以預測兩個圖像是否屬于同一類。例如,如圖3所示的卷積神經網絡的兩個分支沒什么不同,但是是同一網絡的兩個副本。因此,它們共享相同的參數。圖1和圖2通過卷積神經網絡編碼為固定長度的特征向量。如果兩個輸入圖像來自同一類,則它們的特征向量也必須相似,而如果兩個輸入圖像不同,則它們的特征向量也將不同。因此,在圖3的情況下,兩個扁平化的全連接特征向量之間的逐個元素的絕對差必須非常不同。然后,將兩個網絡的完全連接的層饋送到基于歐幾里得距離的對比損失函數,該函數計算兩個類別之間的相似度。歐幾里得距離越小,相似度越高。這是暹羅網絡的主要概念。
圖4展示了建議的融合方法中使用的卷積神經網絡模型。暹羅網絡的每個分支中有3個卷積層和1個最大池層。表1給出了提出的卷積神經網絡的具體參數。選擇圖像色塊大小非常重要。塊大小和分類性能之間存在折衷關系。神經網絡編碼的圖像特征越多,塊尺寸越大,準確率越高,但這會顯著增大全連通層的尺寸,影響效率。另一方面,使用小塊的訓練精度不高??紤]到上述問題和數據集圖像的大小,我們在這項工作中使用了16×16的塊。我們拼接了每個分支獲得的256個特征圖,并將其與256維特征向量完全連接。然后,將二維矢量進一步與第一完全連接層完全連接,進行Softmax操作。最后,將二維矢量反饋給雙向Softmax層,生成兩個類別的概率分數。完全連接操作可以看成是卷積,其內核大小等于輸入圖像的大小。假設輸入圖像的大小為h×w,則輸出權重圖的大小為[ceil(h/2-8+1]×[ceil(w/2-8+1],因為輸入在最大池操作之后,圖像大小被減小為一半,從16×16到8×8。從概念上講,卷積,最大池和連接起了特征提取器的作用。然后,完全連接的層和Softmax函數將概率值介于0和1之間的圖像色塊對分類。
3.2訓練
從TNO圖像融合數據集和OTBVS基準數據集中收集用于訓練的圖像色塊。我們使用2000幅紅外和可見光圖像對,將它們分成小塊進行訓練,而不是使用整個圖像作為卷積神經網絡的輸入。通過這樣做,我們可以使用任意大小的圖像,并且為了提高效率,我們提取步幅為2個像素的圖像色塊,而不用滑動窗口的方式進行處理。每個訓練示例都是來自源圖像的圖像色塊對。令p1為紅外的補塊,p2為VIS的相應補丁;然后,如果訓練標簽{p1,p2}的標簽為1,則將其定義為一個正例。相反,如果標簽為0,則將該示例定義為一個負例。訓練數據集包含400,000個正樣本和400,000個負樣本。
Softmax損失函數用作所提出網絡的目標。采用隨機梯度下降法(SGD)對迭代次數為50000的損失函數進行最小化。批次大小設置為128以進行培訓。我們在流行的深度學習平臺上訓練了我們的暹羅網絡[21],它基于Caffe庫。每個卷積層的初始權重使用Xavier算法設置[22],該算法根據輸入和輸出神經元的數量自適應地確定初始化的規(guī)模。每層中的偏差均初始化為0。我們?yōu)樗袑釉O置了相同的傾斜速率0.0001。利用800000個訓練實例,經過50000次迭代,通過損失函數優(yōu)化,我們得到暹羅網絡模型。該模型包含來自網絡各層的所有權重和偏差。通過迭代,Softmax損失的減少趨勢如圖5所示。
3.3最終權重圖生成和融合方案
通過使用大量紅外和可見光圖像色塊對進行訓練來生成卷積神經網絡模型。由于卷積神經網絡的輸出是使用Softmax分類器的兩類概率分布,因此獲得了權重圖w。在訓練階段,由于最大池的內核大小和步幅為2×2和2,因此權重圖的大小如3.1節(jié)中所述減小??紤]到這一點,我們知道w中的每個相鄰系數都表示大小為16×16的圖像路徑對的顯著性。為了得到與源圖像大小相同的權重圖W,我們w的系數重新分配到2個像素步長的16×16色塊,取重疊色塊的平均值??梢詫⑵湟暈榉聪蜃畲蟪夭僮鳌D6顯示的是權重圖生成方案的示例,權重圖w的大小為2×2。例如,假設權重圖w由四個像素組成,其值分別為R,O,Y和G。然后,最終的權重圖通過將w中的每個像素值分配給跨度為2個像素的16×16色塊來獲得W。然后對多個色塊重疊的像素值進行平均計算。例如,在圖6,則W中中心像素的值為(R+O+Y+G)/4。如本節(jié)所述3.1,當源圖像的尺寸為h×w時,輸出權重圖的尺寸為[ceil(h/2-8)+1]×[ceil(w/2)?8+1]。在反向計算中,權重圖的大小應為[(ceil(h/2?8+1)×2+14]×[(ceil(w/2?8+1)×2+14],最終等于源圖像的大小。
紅外和可見光圖像是通過不同的成像方式捕獲的,而變換域融合方法則適合于產生更少的意外偽像,從而與人類的視覺感知保持良好的一致性。為了解決這個問題,我們通過使用3階2維Haar小波變換來分解紅外和可見光圖像[23],然后將輸入圖像對分解為低頻和高頻子帶。由于在每個級別的小波變換期間都會對原始圖像的尺寸進行下采樣,因此權重圖會按比例縮放以匹配下采樣圖像的尺寸。最后,通過重建3階小波圖像獲得融合圖像。級別數取決于要分解的圖像大小。在這項研究中,大多數圖像的尺寸為350-400×(400-450)像素。在每個級別對圖像進行降采樣并進行低通濾波。如果級別數太大,由于缺少高頻分量,圖像可能會模糊,從而影響重建性能。通過考慮這些因素來選擇級別數。基于小波變換的圖像分解和重構的詳細內容在[23]。圖7中說明了基于小波變換的融合方案。
4.實驗結果
4.1基準數據集和實驗環(huán)境
為了評估所提出方法的性能,我們從TNO圖像融合數據集和OTBVS基準數據集中收集了用于訓練和融合的圖像。TNO圖像融合數據集包含不同軍事相關場景的多光譜圖像,并在不同的多波段相機系統(tǒng)中注冊[24].OTCBVS是一個公共基準測試數據集,用于測試和評估新穎和最新的計算機視覺算法[25].圖8中顯示了來自兩個圖像融合數據集的十二對測試圖像對.可見光和紅外圖像嚴格對齊,以避免融合圖像中出現(xiàn)重影偽影。此外,我們使用了東京多光譜目標檢測數據集[26]以評估所提出的方法在低能見度情況下行人檢測的有效性。
在Linux操作系統(tǒng)下,我們使用了一臺包含Intel i7 core CPU,16GB RAM(隨機存取存儲器)的計算機進行了卷積神經網絡模型訓練。NVIDIA TITAN X GEFORCE GTX GPU(美國加利福尼亞州 NVDIA)用于加速培訓過程。融合實驗是在具有Intel i7 core CPU和8GB內存的Windows系統(tǒng)上進行的,并采用MATLAB實現(xiàn)。為了進行客觀的性能評估,我們在同一個系統(tǒng)上運行YOLOv3對象檢測器[27]和進行卷積神經網絡訓練。
4.2性能評估
多光譜圖像融合技術已經在目標檢測,目標跟蹤和監(jiān)視等多個領域廣泛應用。然而,實際應用在很大程度上取決于圖像融合方法的質量。因此,對融合性能的評估應采用定性和定量相結合的方式[28]。為了評估各種紅外和可見光圖像融合方法的性能,人們提出了許多評估方法,并可歸類為主觀方法和客觀方法[29]。主觀評估方法在基于視覺感知的融合圖像質量評估中起著重要作用。主觀標準包括圖像細節(jié),對象完整性和圖像失真。盡管如此,最直接的主觀評估方法是在融合圖像上應用特定的對象檢測器,正如本研究中所進行的那樣。
相反,客觀評估方法可以定量評估圖像融合的性能。它們與視覺感知非常一致,不容易被觀察者偏頗。近年來,人們提出了多種基于融合度量的客觀方法。它們可以分為基于信息論的方法,基于圖像結構相似性的方法,基于圖像特征的方法和基于人類感知的方法。實驗中引入并利用了幾種代表性的圖像融合方法評估指標。熵(EN)和互信息(MI)是典型的基于信息的方法。根據信息論,圖像的熵表示圖像內的信息量[30]。互信息度量兩個圖像之間的依賴性。更具體地說,它量化了源圖像傳輸到融合圖像的信息量[31]。圖像的結構相似性(SSIM)是一種感知度量,它量化了處理造成的質量損失[32]?;谔荻刃畔⒌亩攘縌^ab/f[30]量化了從源圖像傳輸到融合圖像的邊緣信息量。視覺信息保真度(VIF)是一種基于人類感知的度量[28],它解決了人類視覺系統(tǒng)提取的圖像信息的概念。對于上述每個評估指標,較大的值表示較好的融合結果。
4.3結果分析
我們選擇了18種具有代表性的現(xiàn)有技術方法(這些方法在最近的論文[33]中進行了調查)并與我們所提出的方法進行了可見光和紅外融合性能的比較。本文選擇現(xiàn)有技術方法的主要動機有兩個:(1)本文調查的現(xiàn)有技術方法具有代表性,并且所有現(xiàn)有技術方法的測試代碼和評估指標均可用于性能評估。(2)用于性能評估和CPU時間測量的測試圖像在覆蓋范圍和數量上是足夠的。在[32]中典型的調查方法有LP,Wavelet,NSCT3,雙樹多分辨率離散余弦變換(DTMDCT),交叉雙邊濾波器(CBF),混合多尺度分解(HMSD),基于引導濾波的融合(GFF),基于各向異性擴散的融合(ADF),ASR,LP和SR(LPSR),方向信息驅動的PCNN(OI-PCNN),NSCT域中SF驅動的PCNN(NSCT-SF-PCNN),定向離散余弦變換和PCA(DDCTPCA),F(xiàn)PDE,基于視覺顯著性的兩尺度圖像融合(TSIFVS),局部邊緣保留LC(LEPLC),梯度轉移融合(GTF)和IFEVIP的兩尺度圖像融合。LP,Wavelet,NSCT,DTMDCT,CBF,HMSD,GFF和ADF是基于多尺度變換的典型方法,ASR和LPSR屬于基于SR的方法,OIPCNN和NSCT-SF-PCNN是基于神經網絡的典型方法,DDCTPCA和FPDE是典型的基于子空間的方法,TSIFVS和LEPLC是典型的基于顯著性的方法,GTF和IFEVIP屬于其他方法類。
我們在來自TNO數據集的12對具有代表性的可見光和紅外圖像上測試了18種參考方法和我們所提出的方法,以進行定性和定量比較。測試的圖像對與在[31]中測試的圖像完全相同.我們使用了五個典型的評估指標,即EN,MI,SSIM,Q^AB/F和VIF,來評估不同的紅外和可見光圖像融合方法的性能。對于每個評估指標,值越大表示融合性能越好。
我們測試和審查了18種參考方法的主觀視覺質量的比較,并提出了12種紅外、可見光和紅外圖像對的檢測方法。我們根據亮度保持,偽影和細節(jié)紋理的標準評估了定性性能。圖9顯示了18種參考方法和我們所提出的方法的定性性能。DTMDCT的融合結果通常比其他方法更亮?;赟R的方法在亮度保持和偽影角度上都有相似的結果?;谏窠浘W絡的方法的結果與不同的測試圖像缺乏一致性?;谧涌臻g的方法和基于顯著性的方法在亮度和細節(jié)紋理保留方面也產生了相似的融合結果。我們所提出的方法在保持熱輻射強度和細節(jié)紋理的同時展現(xiàn)出極好的視覺質量,而不會帶來意想不到的偽影。
為了進一步證明所提方法在細節(jié)紋理和亮度保持方面的定性性能,我們選擇了三種典型方法與我們的方法進行比較(如圖10所示)。從基準數據集中選擇了四組圖像,即Bunker,Nato_camp,Kaptein和Street。NSCT是具有代表性的基于多尺度變換的方法,ASR是典型的基于SR的方法,而NSCT-SF-PCNN是具有代表性的基于神經網絡的方法。在可見和紅外圖像中,分別使用黃色和品紅色矩形來標記要比較的圖像子區(qū)域。而在融合圖像中,使用紅色矩形來標記相應的子區(qū)域。(1)Bunker:與其他三種方法相比,我們所提出的方法較好地保留了可見光圖像的細節(jié)紋理和亮度。(2)Nato_camp和Kaptein:與其他方法相比,我們所提出的方法不僅能更充分地將人體輻射的熱能從紅外圖像轉移到融合圖像,還在融合圖像中保留了可見圖像中的垂直碼模式。(3)Street:在我們所提出的方法和其他方法相比,招牌的亮度明顯不同。從亮度和細節(jié)紋理保留的角度來看,我們所提出的方法的整體性能顯示出良好的視覺質量,且不會產生偽影。
為了進行客觀的數量比較,我們使用18種參考方法和我們所提出的方法報告了5個指標的結果。
表2采用建議的方法展示了12個圖像對的度量值,而在表3中比較了各個度量的平均值,其中每列的粗體顯示的最大值表示最佳性能。為了更好地觀察指標值趨勢,表3如圖11中的條形圖所示。由于OIPCNN和LEPLC方法顯示較高的EN值,所以融合圖像包含了大量的信息?;谏窠浘W絡的方法在MI中取得了較好的效果,但在SSIM中效果較差。該結果與定性實驗中的不同偽影相吻合。在Q^ab/f中,GFF和OIPCNN獲得了良好的性能,這表明從源圖像到融合圖像傳輸了大量的邊緣信息。LEPLC和GFF方法顯示出良好的VIF值,也與定性結果相符。我們所提出的方法在EN,SSIM,Q^ab/f和VIF中都產生了最好的結果。對于MI,基于PCNN的方法表現(xiàn)出了最好的性能,但在SSIM中基于PCNN的方法顯示出了較低的值。
除了定性和定量性能比較之外,我們還通過使用夜間行人檢測測試了該方法的有效性。我們分別在可見光圖像,紅外圖像和融合圖像上應用了與YOLOv3集成的行人檢測器。其中融合圖像是通過我們提出的方法獲得的。由于在弱光或夜間環(huán)境下能見度較低,所以錯過了行人。相比之下,在紅外圖像和融合圖像中檢測到錯過的行人(如圖12所示)。圖像中標記的百分比數字表示檢測結果的置信度值,數值越高越好。在大多數情況下,融合圖像中的行人檢測置信度值比紅外圖像中的高,除了圖像b(81%對 91%)行人區(qū)域與背景物體重疊的情況外。我們所提出的融合方法在亮度和細節(jié)紋理保留方面具有優(yōu)勢,這優(yōu)化了行人檢測性能。
表4中顯示了兩個序列上的CPU時間戳比較。序列的圖像大小為270×360,表中的每個值表示每種方法的CPU時間戳在兩個序列上的平均值和標準偏差。結果表明,基于多尺度變換的方法效率高且穩(wěn)定。但是,由于算法的復雜性,一些方法(例如ASR,NSCT_SF_PCNN和DDCTPCA)也相對較慢。我們的方法大約需要19s來處理一對圖像。對于實時操作,代碼傳輸和具有硬件加速的并行計算是必要的,這仍然是未來工作的主要部分。
5.結論
在本文中,我們提出了一種基于深度學習的紅外和可見光圖像融合方法。在我們的方法中,采用基于卷積神經網絡的特征分類方法生成權重圖,該權重圖表示每個源像素從一對源圖像融合的概率。通過應用所提出的方法,可以立即找出圖像融合中的關鍵問題(即活動水平測量和融合規(guī)則設計)。通過在公共基準數據集上使用對象檢測器對性能進行比較,證明了該方法的視覺質量。定量評估結果表明,基于卷積神經網絡的融合方法在噪聲,失真和強度差異方面比人工設計的方法更有效。我們相信我們的方法是非常有效且穩(wěn)健的預注冊多光譜圖像的融合方法。未來工作中,我們打算為圖像融合開發(fā)新的深度神經網絡,并通過使用并行計算單元實現(xiàn)該算法來提高融合過程的效率。
作者貢獻:JP提出了這個想法并實施了實驗。YC在數據集準備和驗證方面進行了合作。HS監(jiān)督研究并進行了修訂和改進。
資金:本材料基于貿易,工業(yè)和能源部(韓國MOTIE)在工業(yè)技術創(chuàng)新計劃(10080619)下的支持。利益沖突:作者聲明沒有利益沖突。
參考文獻
[1]Zhang,B.;Lu,X.;Pei, H.; Zhao, Y. A fusion algorithm for infrared and visible images based on saliency analysis and non-subsampled Shearlet transform. Infrared Phys. Technol. 2015, 73, 286-297. [CrossRef]
[2]Jin, H.; Wang, Y A fusion method for visible and infrared images based on contrast pyramid with teaching learning based optimization. Infrared Phys. Technol. 2014, 64,134-142. [CrossRef]
[3]Cui, G.; Feng, H.; Xu, Z.; Li, Q.; Chen, Y. Detail preserved fusion of visible and infrared images using regional saliency extraction and multi-scale image decomposition. Opt. Commun. 2015, 341,199-209. [CrossRef]
[4]Fan, X.; Shi, P.; Ni, J.; Li, M. A thermal infrared and visible images fusion based approach for multi target detection under complex environment. Math. Probl. Eng. 2015. [CrossRef]
[5]Du, J.; Li, W.; Xiao, B.; Nawaz, Q. Union Laplacian pyramid with multiple features for medical image fusion. Neurocomputing 2016,194, 326-339. [CrossRef]
[6]Toet, A. A morphological pyramidal image decomposition. Pattern Recognit. Lett. 1989,9,255-261. [CrossRef]
[7]Singh, R.; Khare, A. Fusion of multimodal medical images using Daubechies complex wavelet transform c a multiresolution approach. Inf. Fusion 2014, 19, 49-60. [CrossRef]
[8]Li, H.; Manjunath, B.; Mitra, S. Multi sensor image fusion using the wavelet transform. Graph. Models Image Process. 1995, 57, 235-245. [CrossRef]
[9]Lewis, J.; Callaghan, O.; Nikolov, S.; Bull, D.; Canagarajah, N. Pixel- and region-based image fusion with complex wavelets. Inf. Fusion 2007, 8,119-130. [CrossRef]
[10]Yang, L.; Guo, B.; Ni, W. Multimodality medical image fusion based on multiscale geometric analysis of contourlet transform. Neurocomputing 2008, 72, 203-211. [CrossRef]
[11]Zheng, L.; Bhatnagar, G.; Wu, Q. Directive contrast based multimodal medical image fusion in nsct domain. IEEE Trans. Multimedia 2013,15,1014-1024.
[12]Wang, L.; Li, B.; Tan, L. Multimodal medical volumetric data fusion using 3-d discrete shearlet transform and global-to-local rule. IEEE Trans. Biomed. Eng. 2014, 61, 197-206. [CrossRef]
[13]Yang, B.; Li, S. Pixel-level image fusion with simultaneous orthogonal matching pursuit. Inf. Fusion 2012, 13, 10-19. [CrossRef]
[14]Li, S.; Yin, H.; Fang, L. Group-sparse representation with dictionary learning for medical image denoising and fusion. IEEE Trans. Biomed. Eng. 2012, 59, 3450-3459. [CrossRef]
[15]Liu, Y.; Wang, Z. Simultaneous image fusion and denosing with adaptive sparse representation. IET Image Process. 2015, 9, 347-357. [CrossRef]
[16]Ma, J.; Yu, W.; Liang, P.; Li, C.; Jiang, J. FusionGAN: A generative adversarial network for infrared and visible image fusion. Inf. Fusion 2019, 48, 11-26. [CrossRef]
[17]Shen, R.; Cheng, I.; Basu, A. Cross-scale coefficient selection for volumetric medical image fusion. IEEE Trans. Biomed. Eng. 2013, 60,1069-1079. [CrossRef]
[18]Liu, Y.; Liu, S.; Wang, Z. A general framework for image fusion based on multi-scale transform and sparse representation. Inf. Fusion 2015, 24,147-164. [CrossRef]
[19]LeCun, Y.; Bottou, L.; Bengio, Y.; Haffner, P. Gradient-based leaning applied to document recognition. Proc. IEEE 1998, 86, 2278-2324. [CrossRef]
[20]Jin, X.; Jiang, Q.; Yao, S.; Zhou, D.; Nie, R.; Hai, J.; He, K. A survey of infrared and visible image fusion methods. Infrared Phys. Technol. 2017, 85,478-501. [CrossRef]
[21]DLP: Deep Learning Platform. Available online: http://www.ai-dlp.com/ (accessed on 1 March 2019).
[22]Glorot, X.; Bengio, Y. Understanding the difficulty of training deep feedforward neural networks. In Proceedings of the thirteenth International Conference on Artificial Intelligence and Statistics, Sardinia, Italy, 13-15 May 2010.
[23]Liu, J.; Yin, Q.; Guo, P. A New Strategy to Improve Image Fusion Effect. In Proceedings of the 2016 International Conference on Machine Learning and Cybernetics, Dalian, China, 13-16 August 2006; pp. 3770-3775.
[24]FigShare. Available online: https://figshare.com/articles/TNO_Image_Fusion_Dataset/1008029 (accessed on 1 March 2019).
[25]OTCBVS Benchmark Dataset Collection. Available online: http://vcipl-okstate.org/pbvs/bench/ (accessed on 1 March 2019).
[26]Multispectral Object Detection Dataset. Available online: https://www.mLt.u-tokyo.ac.jp/projects/mil_ multispectral/ (accessed on 1 March 2019).
[27]YOLO: Real-Time Object Detection. Available online: https://pjreddie.com/darknet/yolo/ (accessed on 1 March 2019).
[28]Han, Y.; Cai, Y.; Cao, Y.; Xu, X. A new image fusion performance metric based on visual information fidelity. Inf. Fusion 2013,14,127-135. [CrossRef]
[29]Chen, Y.; Blum, R. A new automated quality assessment algorithm for image fusion. Image Vis. Comput. 2009,27,1421-1432. [CrossRef]
[30]Roberts, J.; Van Aardt, J.; Ahmed, F. Assessment of image fusion procedures using entropy, image quality, and multispectral classification. J. Appl. Remote Sens. 2008, 2, 023522.
[31]Qu, G.; Zhang, D.; Yan, P. Information measure for performance of image fusion. Electron. Lett. 2002, 38, 313-315. [CrossRef]
[32]Wang, Z.; Bovik, A. A universal image quality index. IEEE Signal Process. Lett. 2002, 9, 81-84. [CrossRef]
[33]Ma, J.; Ma, Y.; Li, C. Infrared and visible image fusion methods and applications: A survey. Inf. Fusion 2019, 14,153-178. [CrossRef]
2.外文資料原文(與課題相關,至少1萬印刷符號以上):
Article
A New Deep Learning Based Multi-Spectral Image Fusion Method
Jingchun Piao *, Yunfan Chen and Hyunchul Shin *
Department of Electrical Engineering, Hanyang University, Ansan 15588, Korea; chenyunfan@hanyang.ac.kr
* Correspondence: kcpark1011@hanyang.ac.kr (J.P.); shin@hanyang.ac.kr (H.S.); Tel.: +82-31-400-4083 (J.P.); +82-31-400-5176 (H.S.)
Received: 12 May 2019; Accepted: 3 June 2019; Published: 5 June 2019
Abstract: In this paper, we present a new effective infrared (IR) and visible (VIS) image fusion method by using a deep neural network. In our method, a Siamese convolutional neural network(CNN) is applied to automatically generate a weight map which represents the saliency of each pixel for a pair of source images. A CNN plays a role in automatic encoding an image into a feature domain for classification. By applying the proposed method, the key problems in image fusion, which are the activity level measurement and fusion rule design, can be figured out in one shot. The fusion is carried out through the multi-scale image decomposition based on wavelet transform, and the reconstruction result is more perceptual to a human visual system. In addition, the visual qualitative effectiveness of the proposed fusion method is evaluated by comparing pedestrian detection results with other methods, by using the YOLOv3 object detector using a public benchmark dataset. The experimental results show that our proposed method showed competitive results in terms of both quantitative assessment and visual quality.
Keywords: image fusion; visible; infrared; convolutional neural network; Siamese network
1. Introduction
Infrared (IR) and visual (VIS) image fusion technology is utilized to generate a composite image from multiple spectral source images for combining complementary information of the same scene. The input source images are captured from different imaging modalities with different parameter settings. The fused image is expected to be more suitable for human perception than any of the individual input image. Due to this advantage, image fusion techniques have wide applications in image processing and computer vision areas to improve the visual ability of human and machine vision. The general framework of image fusion is extracting representative salient features from source images of the same scene, and then the salient features are integrated into a single image by a proper fusion method.
IR images are highly influenced by the external environment, such as light, fog, and smog. [1 , 2]. IR images are superior to VIS images in areas where the VIS image is invisible due to low-light conditions. [3 , 4]. Normal VIS imaging sensors capture the reflective properties of the objects, which can be edges and detail texture of objects. They are able to provide information for human visual perception. As stated above, due to differences in imaging mechanism, the intensities at the same pixel location in IR and VIS images often vary distinctly. A good IR and VIS image fusion method should be able to simultaneously keep the thermal radiation information in IR images and the texture detail information in VIS images.
In the last decade, many image processing methods have been proposed to extract salient features, such as multi-scale decomposition-based methods. In general, multi-scale decomposition consists of three steps, namely, decomposition, fusion, and reconstruction. Pyramids [5 , 6], wavelets [7-9], and shearlets [10-12] are the typical multi-scale transforms that are usually used in image fusion. Sparse coding is also a popular image encoding method, which has also been successfully applied to fuse multi-modality images [13-15]. With the prosperity of deep learning, using a convolutional neural network (CNN) or generative adversarial network (GAN) [16] has become a trend. In [16], a GAN-based method simultaneously keeps the radiation information from the IR images and the detail texture in VIS images. The drawback of this method is low computational efficiency.
One of the most important problems in image fusion is to calculate a weighted map that incorporates information about pixel activity from different source images. In most existing image fusion methods, the goal is two-fold: namely, activity level measurement and weight allocation. In a traditional transform domain fusion method, the sum of the absolute values of the decomposed coefficients is used to measure activity level, and the “selected maximum” or “weighted average” rule is applied to other sources, depending on the measure
收藏