国产强伦姧在线观看无码,中文字幕99久久亚洲精品,国产精品乱码在线观看,色桃花亚洲天堂视频久久,日韩精品无码观看视频免费

      正在閱讀:計(jì)算機(jī)視覺(jué)邁進(jìn)新征程 “玩家”找出哪些新玩法?

      計(jì)算機(jī)視覺(jué)邁進(jìn)新征程 “玩家”找出哪些新玩法?

      2019-08-09 08:49:05來(lái)源:AiChinaTech 關(guān)鍵詞:計(jì)算機(jī)視覺(jué)閱讀量:24151

      導(dǎo)讀:當(dāng)前,計(jì)算機(jī)視覺(jué)的已經(jīng)成為了一個(gè)跨學(xué)科的領(lǐng)域,計(jì)算機(jī)視覺(jué)源于1980年左右的神經(jīng)網(wǎng)絡(luò)技術(shù),但是直到近幾年才真正實(shí)現(xiàn)了大規(guī)模商業(yè)化落地。
        當(dāng)前,計(jì)算機(jī)視覺(jué)的已經(jīng)成為了一個(gè)跨學(xué)科的領(lǐng)域,計(jì)算機(jī)視覺(jué)源于1980年左右的神經(jīng)網(wǎng)絡(luò)技術(shù),但是直到近幾年才真正實(shí)現(xiàn)了大規(guī)模商業(yè)化落地。大規(guī)模的資金進(jìn)入,促使更多專(zhuān)注于計(jì)算機(jī)視覺(jué)的企業(yè)不斷出現(xiàn),這些企業(yè)在不同的領(lǐng)域通過(guò)計(jì)算機(jī)視覺(jué)技術(shù)不斷的改造升級(jí)著原有的商業(yè)模式。作為一個(gè)靈感來(lái)自人類(lèi)視覺(jué)大腦皮層的技術(shù),我們現(xiàn)在是否已經(jīng)處在機(jī)器物體探測(cè)或分類(lèi)能力與人類(lèi)視覺(jué)相當(dāng),甚至更強(qiáng)的階段了呢?
       
        曠視科技:AI鼻紋識(shí)別
       
        近期,曠視科技推出AI鼻紋識(shí)別解決方案,這項(xiàng)解決方案先應(yīng)用于犬只身份認(rèn)證。專(zhuān)用于寵物識(shí)別。有別于瞳孔、臉型等其他犬只認(rèn)證方式,曠視選擇鼻紋作為識(shí)別的關(guān)鍵特征。與人類(lèi)指紋類(lèi)似,犬類(lèi)鼻紋具有性與穩(wěn)定不變性,即不存在鼻紋完全相同的兩只犬、同一只犬的鼻紋亦不會(huì)隨著成長(zhǎng)而改變。主人只需對(duì)準(zhǔn)犬鼻進(jìn)行簡(jiǎn)單的抓拍或者視頻錄像,系統(tǒng)通過(guò)犬鼻檢測(cè),定位出鼻紋關(guān)鍵點(diǎn),將提取到的鼻紋深度圖信息匯入后臺(tái)數(shù)據(jù)庫(kù),更可為犬只生成一張專(zhuān)屬的身份證。目前,曠視鼻紋識(shí)別技術(shù)能達(dá)到犬只的1:1比對(duì),在誤識(shí)率為萬(wàn)分之一的情況下,試點(diǎn)場(chǎng)景中準(zhǔn)確率95%;
       
        極鏈科技:視頻識(shí)別
       
        目前視頻人臉識(shí)別還有很多的困難與挑戰(zhàn),如視頻圖像質(zhì)量差、人臉圖像小燈問(wèn)題,極鏈科技提出了以四模塊對(duì)場(chǎng)景中的人臉進(jìn)行識(shí)別。
       
        1.視頻結(jié)構(gòu)化,將視頻用鏡頭分割。通常采用全局特征和局部特征相結(jié)合的方法。全局特征檢測(cè)全局顏色的分布突變,然后借用局部特征獲得的人臉識(shí)別的跟蹤結(jié)果、跟蹤軌跡的斷續(xù)來(lái)判斷視頻是否具有鏡頭切換。跟蹤來(lái)判斷鏡頭切換有一個(gè)很大的優(yōu)點(diǎn),因?yàn)楹罄m(xù)的步驟也會(huì)采用相似的算法,所以這一步驟所需的算法是可以重復(fù)使用的。
       
        2.人臉軌跡提取。完成了鏡頭分割以后,就可以分割好的單一鏡頭里進(jìn)行人臉軌跡提取。在軌跡提取的算法上,同樣要考慮準(zhǔn)確率和速度的指標(biāo)。要實(shí)現(xiàn)速度和準(zhǔn)確率的平衡,可以有以下兩種途徑:一是間隔采樣or逐幀處理,二是檢測(cè)&跟蹤的配合。
       
        3.人臉識(shí)別。有了人臉軌跡之后,就可以開(kāi)始進(jìn)行人臉的識(shí)別了。但是在將人臉數(shù)據(jù)輸入深度網(wǎng)絡(luò)之前,還需要對(duì)其進(jìn)行必要的變換和處理。其中一部分變換在針對(duì)人臉這一部分非常重要,尤其是在消費(fèi)級(jí)視頻里,那就是人臉的對(duì)齊。人臉對(duì)齊是利用人臉的特征點(diǎn)檢測(cè)定位,將各種姿勢(shì)的人臉圖像還原矯正為正臉的過(guò)程。在算法框架中,需要加入人臉質(zhì)量評(píng)估的算法,以過(guò)濾低質(zhì)量的人臉圖片,保證人臉數(shù)據(jù)的準(zhǔn)確率。在樣本足夠的前提下,可以利用訓(xùn)練得到的模型對(duì)人臉樣本進(jìn)行特征提取。測(cè)試的時(shí)候,在視頻中檢測(cè)得的人臉后,將其輸入到生成的特征向量里,與人臉互動(dòng)的特征向量進(jìn)行匹配,從而找到在特征空間中接近的一個(gè)樣本。
       
        4.識(shí)別結(jié)果融合。以上提到的人臉識(shí)別都是針對(duì)單幀識(shí)別的圖片而言的,之前說(shuō)到的系統(tǒng)識(shí)別結(jié)果都是針對(duì)整個(gè)人臉軌跡而言。因此,后需要將人臉識(shí)別的結(jié)果與整條人臉軌跡融合起來(lái),得到整個(gè)軌跡的識(shí)別結(jié)果。
       
        商湯科技:面部圖片處理
       
        近日,來(lái)自商湯科技,香港中文大學(xué)以及香港大學(xué)的研究團(tuán)隊(duì)提出了一種稱(chēng)為MaskGAN的新型框架,可實(shí)現(xiàn)多樣化和交互式的面部操作。其主要觀點(diǎn)是語(yǔ)義掩模作為靈活的面部操作的適當(dāng)中間表示,使其具有保真度。MaskGAN有兩個(gè)主要組成部分:
       
        1.密集映射
       
        2.編輯行為模擬訓(xùn)練
       
        具體而言,密集映射網(wǎng)絡(luò)學(xué)習(xí)自由形式的用戶修改掩碼和目標(biāo)圖像之間的樣式映射,從而實(shí)現(xiàn)不同的生成結(jié)果。
       
        以色列魏茨曼科學(xué)研究院:圖像分離
       
        本月,以色列魏茨曼科學(xué)研究所的研究人員開(kāi)發(fā)出了一項(xiàng)名為Double-DIP的新技術(shù),該技術(shù)能讓系統(tǒng)在沒(méi)有大量訓(xùn)練數(shù)據(jù)的情況下,通過(guò)深度學(xué)習(xí)來(lái)對(duì)圖像進(jìn)行編輯,分離人們?cè)趫D片中想要的和不想要的部分。該研究基于一項(xiàng)名為DIP(Deep Image Prior)的混合圖像恢復(fù)技術(shù),因此研究人員將他們開(kāi)發(fā)的新分離圖像方法稱(chēng)為Double-DIP。DIP技術(shù)的研究成果已于美國(guó)時(shí)間2018年7月18日提交在arxiv上,名為《圖像恢復(fù)的混合稀疏先驗(yàn)學(xué)習(xí):深度學(xué)習(xí)與稀疏編碼的結(jié)合(Learning Hybrid Sparsity Prior for Image Restoration: Where Deep Learning Meets Sparse Coding)》。
       
        呂貝克大學(xué):醫(yī)學(xué)圖像生成新方法
       
        當(dāng)前,GAN應(yīng)用于醫(yī)學(xué)研究還面臨一項(xiàng)重大挑戰(zhàn)。深度學(xué)習(xí)算法需要對(duì)高分辨率圖像進(jìn)行訓(xùn)練,才能產(chǎn)生佳預(yù)測(cè),然而合成這樣的高分辨率圖像,尤其是3D圖像,需要大量的計(jì)算能力。來(lái)自呂貝克大學(xué)醫(yī)學(xué)信息學(xué)研究所的研究人員提出了一種新方法,可以大大降低硬件的配置要求。研究人員把圖像生成的過(guò)程分解為幾個(gè)階段:首先利用GAN生成低分辨率圖像,然后在正確的分辨率下每次生成一小部分的細(xì)節(jié)圖像。通過(guò)實(shí)驗(yàn),研究人員發(fā)現(xiàn)這種方法不僅生成了逼真的高分辨率2D和3D圖像,而且無(wú)論圖像大小,支出費(fèi)用都保持不變。
       
        小結(jié):
       
        在深度學(xué)習(xí)技術(shù)出現(xiàn)之前,很多應(yīng)用都遇到了瓶頸,進(jìn)步很慢,每年只有大概的性提升。但隨著深度學(xué)習(xí)的進(jìn)步,計(jì)算機(jī)視覺(jué)的發(fā)展經(jīng)歷了一個(gè)巨大的飛躍,技術(shù)的不斷升級(jí)也催生出了一系列跨行業(yè)的應(yīng)用。隨著主流的科技巨頭入場(chǎng),計(jì)算機(jī)視覺(jué)領(lǐng)域已經(jīng)熱鬧非凡,但如果想要開(kāi)創(chuàng)出一些新的應(yīng)用獲獎(jiǎng)應(yīng)用能力再進(jìn)行提升,恐怕還有不短的路需要走。
      我要評(píng)論
      文明上網(wǎng),理性發(fā)言。(您還可以輸入200個(gè)字符)

      所有評(píng)論僅代表網(wǎng)友意見(jiàn),與本站立場(chǎng)無(wú)關(guān)。

      版權(quán)與免責(zé)聲明:

      凡本站注明“來(lái)源:智能制造網(wǎng)”的所有作品,均為浙江興旺寶明通網(wǎng)絡(luò)有限公司-智能制造網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本站授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來(lái)源:智能制造網(wǎng)”。違反上述聲明者,本站將追究其相關(guān)法律責(zé)任。

      本站轉(zhuǎn)載并注明自其它來(lái)源(非智能制造網(wǎng))的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn)或和對(duì)其真實(shí)性負(fù)責(zé),不承擔(dān)此類(lèi)作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如其他媒體、平臺(tái)或個(gè)人從本站轉(zhuǎn)載時(shí),必須保留本站注明的作品第一來(lái)源,并自負(fù)版權(quán)等法律責(zé)任。如擅自篡改為“稿件來(lái)源:智能制造網(wǎng)”,本站將依法追究責(zé)任。

      鑒于本站稿件來(lái)源廣泛、數(shù)量較多,如涉及作品內(nèi)容、版權(quán)等問(wèn)題,請(qǐng)與本站聯(lián)系并提供相關(guān)證明材料:聯(lián)系電話:0571-89719789;郵箱:1271141964@qq.com。

      不想錯(cuò)過(guò)行業(yè)資訊?

      訂閱 智能制造網(wǎng)APP

      一鍵篩選來(lái)訂閱

      信息更豐富

      推薦產(chǎn)品/PRODUCT 更多
      智造商城:

      PLC工控機(jī)嵌入式系統(tǒng)工業(yè)以太網(wǎng)工業(yè)軟件金屬加工機(jī)械包裝機(jī)械工程機(jī)械倉(cāng)儲(chǔ)物流環(huán)保設(shè)備化工設(shè)備分析儀器工業(yè)機(jī)器人3D打印設(shè)備生物識(shí)別傳感器電機(jī)電線電纜輸配電設(shè)備電子元器件更多

      我要投稿
      • 投稿請(qǐng)發(fā)送郵件至:(郵件標(biāo)題請(qǐng)備注“投稿”)1271141964.qq.com
      • 聯(lián)系電話0571-89719789
      工業(yè)4.0時(shí)代智能制造領(lǐng)域“互聯(lián)網(wǎng)+”服務(wù)平臺(tái)
      智能制造網(wǎng)APP

      功能豐富 實(shí)時(shí)交流

      智能制造網(wǎng)小程序

      訂閱獲取更多服務(wù)

      微信公眾號(hào)

      關(guān)注我們

      抖音

      智能制造網(wǎng)

      抖音號(hào):gkzhan

      打開(kāi)抖音 搜索頁(yè)掃一掃

      視頻號(hào)

      智能制造網(wǎng)

      公眾號(hào):智能制造網(wǎng)

      打開(kāi)微信掃碼關(guān)注視頻號(hào)

      快手

      智能制造網(wǎng)

      快手ID:gkzhan2006

      打開(kāi)快手 掃一掃關(guān)注
      意見(jiàn)反饋
      我要投稿
      我知道了