国产强伦姧在线观看无码,中文字幕99久久亚洲精品,国产精品乱码在线观看,色桃花亚洲天堂视频久久,日韩精品无码观看视频免费

      您現(xiàn)在的位置:智能制造網(wǎng)>技術中心>漢振分享 | 基于深度學習的化纖外觀缺陷語義分割

      直播推薦

      更多>

      企業(yè)動態(tài)

      更多>

      推薦展會

      更多>

      漢振分享 | 基于深度學習的化纖外觀缺陷語義分割

      2020年07月28日 11:33:46人氣:777來源:浙江漢振智能技術有限公司

      摘要:

      針對化纖外觀缺陷檢測使用基于深度學習的語義分割方法,總結了自2014年以來基于深度學習的典型語義分割方法,并在此基礎上應用到化纖外觀檢測項目上,取得了不錯的效果。

      01 化纖外觀缺陷檢測背景

      化纖作為紡織制造的原料,由化纖生產企業(yè)進入下游紡織企業(yè)前會收卷形成絲餅,但在絲餅生產中會有不同程度的損傷,如產生油污、毛絲、絆絲、斷絲等表面缺陷,這些缺陷會直接造成下游紡織企業(yè)生產的產品質量不高。油污會影響織物的外觀以及上色;毛絲會使織造效率降低,同時使織物表面產生瑕疵;絆絲不僅會影響化纖的包裝外觀,而且在化纖后續(xù)加工容易產生斷頭和毛絲;而斷絲則直接導致化纖的不連續(xù)。因此需要對化纖絲餅進行影響織物質量的表面缺陷檢測,以確?;w出廠質量。目前大部分生產廠家通過人工來檢測化纖外觀缺陷,既費時費力又不能保證質量,使用機器視覺代替人工檢測對化纖生產企業(yè)是迫切需要的。

      化纖外觀缺陷主要包括油污、碰毛、紙管破損、絆絲、毛絲、斷絲等,部分典型缺陷如圖1,這些缺陷大部分使用語義分割的方法來進行。語義分割融合了圖像分割和目標識別兩大技術,將圖像分割成幾組具有特定語義類別的區(qū)域,屬于像素級別的密集分類問題。早期一般使用直方圖閾值化、混合化特征空間聚類、區(qū)域生長法以及基于SVM的方法等進行圖像目標語義分割,這些方法受缺陷和圖像本身影響較大,導致漏檢和誤檢比較嚴重,如油污檢測中使用直方圖閾值化容易導致顏色較淡的油污漏檢,以及絲線紋理誤檢為油污。

      圖1. 化纖外觀典型缺陷

      02 基于深度學習的語義分割

      深度學習的概念自2006年提出以來,因其在圖像分類、檢測等基礎領域的優(yōu)秀表現(xiàn),取得了顯著的發(fā)展,特別是2012年Alex Krizhevsky等設計了AlexNet模型在ImageNet圖像分類挑戰(zhàn)賽上以領(ling)先第二名傳統(tǒng)方法10%的準確率奪得冠(guan)軍,使得深度學習受到廣泛關注。此后,包括語義分割在內的許多計算機視覺問題都開始使用深度學習算法,識別精度在部分領域甚至超過了人工識別精度?;谏疃葘W習的語義分割,一般有基于*的方法、基于信息融合的方法、基于循環(huán)神經網(wǎng)絡(RNN)的方法以及基于對抗生成網(wǎng)絡的方法等。

      2.1 基于*的方法

      2014年,Shelhamer等提出了基于全卷積神經網(wǎng)絡(FCN)的語義分割方法,F(xiàn)CN作為圖像語義分割的先河,實現(xiàn)像素級別的分類,為后續(xù)使用CNN作為基礎的圖像語義分割模型提供重要基礎。如圖2所示,它將CNN 中的全連接層替換為卷積層,建立全卷積網(wǎng)絡,輸入任意尺寸的圖像后,經過學習以及處理產生相應尺寸的輸出,然后對每個像素進行分類,這個流程稱為編碼器;在分類完成后通過上采樣將分類結果映射到原圖像尺寸,得到密集的像素級別的標簽,即語義分割結果,這部分流程被稱為*。FCN融合了多分辨率的信息,將不同大小的特征圖進行上采樣并進行融合,取得了較為精確的分割效果。

      但是,F(xiàn)CN在解碼階段進行上采樣時易丟失像素的位置信息而影響分割精度,如何巧妙設計*對分割結果至關重要,如2017年,由Badrinarayanan等提出的SegNet算法,SegNet的每個編碼器層都對應一個*層,*的輸出被送入分類器獨立為每個像素產生類概率,特征圖中的空間位置能準確地反映射到其初始位置,相較FCN能準確地恢復圖像邊界信息,分割效果更好。

      圖2. 全卷積神經網(wǎng)絡(FCN)語義分割模型結構

      2.2 基于信息融合的方法

      為了使語義分割效果更好,充分利用分割目標的空間信息,于是對不同層次的信息進行融合,一般來說有如下信息融合方式:像素級特征融合、多特征圖和多尺度融合。

      圖3. 金字塔型空洞池化(ASPP)模塊

      像素級特征融合方法中,如2014年,Google研究團隊的Chen L C等提出DeepLab V1模型,該模型引入了條件隨機場(CRF) 作為后處理模塊,將圖像中每個像素與CRF模型中的某個節(jié)點一一對應,衡量任意像素之間的聯(lián)(lian)系,實現(xiàn)底層圖像信息像素間的融合,實現(xiàn)了分割細節(jié)增強;2016年,DeepLab V2在DeepLab V1的基礎上引入了金字塔型空洞池化(ASPP)模塊,選擇不同采樣率的帶孔卷積處理特征圖,提高了分割精度;2017年,DeepLab V3在DeepLab V2的基礎上繼續(xù)優(yōu)化ASPP結構,通過級聯(lián)多個空洞卷積結構,有效地提取了表現(xiàn)力強的特征;2018年,DeepLab V3+把DeepLabv3作為編碼器,骨干網(wǎng)絡使用了Xception模型,提高了語義分割的健壯性和運行速率。

      多特征圖和多尺度融合方法中,如2015年,Liu W等提出金字塔場景解析網(wǎng)絡(ParseNet)將全局特征圖轉化為與局部特征圖相同的尺寸,不同類型的處理模塊側重于激活的不同區(qū)域的特征圖,合并后輸入下一層或用于學習分類器,有效地利用了前面層所提供的上下文信息,取得了比FCN 跳躍結構更好的分割效果。2020年,Ho Kei Cheng等提出CascadePSP,采用一幅圖像和多個不同尺度的不完美分割掩模來生成細化的分割,多尺度輸入使模型捕獲不同層次的結構和邊界信息,自適應地融合不同的掩模(mo)特征,所有低分辨率的輸入分段都被雙線性向上采樣到相同的大小,并與RGB圖像連接;CascadePSP是一種通用的級聯(lián)分割細化模型,它可以細化任何給定的輸入分割,在不進行微調的情況下提高現(xiàn)有分割模型的性能。

      2.3 基于循環(huán)神經網(wǎng)絡的方法

      循環(huán)神經網(wǎng)絡(RNN)是一種基于記憶的網(wǎng)絡模型,它從連續(xù)數(shù)據(jù)中學習長期依賴關系的能力和保持記憶的能力,具有周期性的連接和通過對圖像的長期語義依賴進行建模來捕獲圖像中的上下文的能力,成功應用于語義分割。如2015年,Visin F基于用于圖像分類的ReNet提出了ReSeg語義分割,該模型中每個ReNet層由4個RNN組成(水平、豎直掃描圖像),將激活信息或圖塊編碼并生成相應的全局特征,ReNet層堆疊在預訓練的卷積結構上,生成一般局部特征,通過全局特征和局部特征上采樣得到分割圖。

      2.4 基于對抗生成網(wǎng)絡的方法

      2016年,Pauline Luc等在文獻《Semantic Segmentation using Adversarial Networks》*將對抗生成網(wǎng)絡(GAN)應用到語義分割中,他們使用判別器識別真實標簽與分割圖像,縮小標簽與分割圖像之間的高次不一致性。該網(wǎng)絡模型由一個分割器(即普通的分割網(wǎng)絡模型)作為生(sheng)成器,其后添加一個判別網(wǎng)絡結構,通過GAN 產生高質量的生成圖像來改進像素分類,該方法分割效果一般,是對抗生成網(wǎng)絡(GAN)應用到語義分割一次有效的嘗試。后續(xù)基于對抗生成網(wǎng)絡的半監(jiān)督語義分割有一定發(fā)展,如2017年的《An Adversarial Regularisation for Semi-Supervised Training of Structured Output Neural Networks》。

      03 語義分割對化纖外觀缺陷的檢測

      漢振智能對化纖外觀缺陷中的油污、碰毛以及紙管破損進行了分析,采用基于深度學習語義分割的方法,對正負缺陷樣本極不平衡的情況進行了處理,設計了使用本項目的損失函數(shù),同時對油污、碰毛以及紙管破損的特征進行分析,對缺陷得到了較好的分割效果,得到了客戶的認可,具體效果見圖4。

      圖4. 化纖外觀缺陷檢測結果

      全年征稿/資訊合作 聯(lián)系郵箱:1271141964@qq.com

      免責聲明

      • 凡本網(wǎng)注明"來源:智能制造網(wǎng)"的所有作品,版權均屬于智能制造網(wǎng),轉載請必須注明智能制造網(wǎng),http://towegas.com。違反者本網(wǎng)將追究相關法律責任。
      • 企業(yè)發(fā)布的公司新聞、技術文章、資料下載等內容,如涉及侵權、違規(guī)遭投訴的,一律由發(fā)布企業(yè)自行承擔責任,本網(wǎng)有權刪除內容并追溯責任。
      • 本網(wǎng)轉載并注明自其它來源的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點或證實其內容的真實性,不承擔此類作品侵權行為的直接責任及連帶責任。其他媒體、網(wǎng)站或個人從本網(wǎng)轉載時,必須保留本網(wǎng)注明的作品來源,并自負版權等法律責任。
      • 如涉及作品內容、版權等問題,請在作品發(fā)表之日起一周內與本網(wǎng)聯(lián)系,否則視為放棄相關權利。

      <
      更多 >

      工控網(wǎng)機器人儀器儀表物聯(lián)網(wǎng)3D打印工業(yè)軟件金屬加工機械包裝機械印刷機械農業(yè)機械食品加工設備制藥設備倉儲物流環(huán)保設備造紙機械工程機械紡織機械化工設備電子加工設備水泥設備海洋水利裝備礦冶設備新能源設備服裝機械印染機械制鞋機械玻璃機械陶瓷設備橡塑設備船舶設備電子元器件電氣設備


      我要投稿
      • 投稿請發(fā)送郵件至:(郵件標題請備注“投稿”)1271141964.qq.com
      • 聯(lián)系電話0571-89719789
      工業(yè)4.0時代智能制造領域“互聯(lián)網(wǎng)+”服務平臺
      智能制造網(wǎng)APP

      功能豐富 實時交流

      智能制造網(wǎng)小程序

      訂閱獲取更多服務

      微信公眾號

      關注我們

      抖音

      智能制造網(wǎng)

      抖音號:gkzhan

      打開抖音 搜索頁掃一掃

      視頻號

      智能制造網(wǎng)

      公眾號:智能制造網(wǎng)

      打開微信掃碼關注視頻號

      快手

      智能制造網(wǎng)

      快手ID:gkzhan2006

      打開快手 掃一掃關注
      意見反饋
      關閉
      企業(yè)未開通此功能
      詳詢客服 : 0571-87858618