本發明(ming)涉及圖像處理,尤其(qi)是涉及一種基于(yu)超像素的序列路(lu)徑矢量(liang)圖形合成(cheng)方法。
背景技術:
1、svg(可(ke)縮放(fang)矢量(liang)圖(tu)形(xing))是一種廣(guang)泛(fan)使用(yong)的(de)圖(tu)形(xing)格式,通過(guo)(guo)以(yi)貝塞爾封閉曲(qu)線為代表的(de)參(can)數化矢量(liang)圖(tu)形(xing)去表示一張圖(tu)像(xiang),在網絡設計(ji)、圖(tu)形(xing)設計(ji)、移動應(ying)用(yong)程序(xu)、數據可(ke)視化等領域有(you)著廣(guang)泛(fan)的(de)應(ying)用(yong)和優勢。與以(yi)像(xiang)素表示內容的(de)光(guang)柵化圖(tu)像(xiang)相比(bi),svg通過(guo)(guo)參(can)數化向量(liang)描述圖(tu)像(xiang),并(bing)受益于(yu)其良好的(de)放(fang)縮能力和可(ke)編輯(ji)性,能夠(gou)在不丟失質量(liang)的(de)情(qing)況下縮放(fang)到任意分辨率(lv),并(bing)且可(ke)以(yi)通過(guo)(guo)其分層的(de)拓(tuo)撲信息輕松地對其中的(de)對應(ying)物體進行編輯(ji),具(ju)有(you)很大的(de)應(ying)用(yong)價值。
2、圖(tu)像(xiang)矢量化旨在將光柵圖(tu)像(xiang)轉(zhuan)換為(wei)svg,是計算(suan)機視覺和圖(tu)形(xing)學中一個重要(yao)的并且具有挑戰性的問題。現(xian)有的圖(tu)像(xiang)矢量化方法可以分(fen)為(wei)三類(lei):
3、1)基(ji)(ji)于傳統(tong)算法(fa)(fa)的(de)方(fang)(fang)法(fa)(fa)利(li)用(yong)一些(xie)人為設計的(de)算法(fa)(fa)對圖(tu)像(xiang)(xiang)進行擬合,可(ke)分為基(ji)(ji)于網格的(de)方(fang)(fang)法(fa)(fa)和基(ji)(ji)于曲線(xian)的(de)圖(tu)像(xiang)(xiang)矢(shi)(shi)量化(hua)方(fang)(fang)法(fa)(fa)。基(ji)(ji)于網格的(de)方(fang)(fang)法(fa)(fa)將輸入圖(tu)像(xiang)(xiang)分割成(cheng)不重(zhong)疊(die)的(de)小塊,推斷(duan)每個區域的(de)顏色和邊界位(wei)置。基(ji)(ji)于曲線(xian)的(de)方(fang)(fang)法(fa)(fa)采用(yong)兩側有不同顏色的(de)貝塞(sai)爾曲線(xian)來創建(jian)矢(shi)(shi)量圖(tu)像(xiang)(xiang),這些(xie)基(ji)(ji)于傳統(tong)算法(fa)(fa)的(de)方(fang)(fang)法(fa)(fa)比較魯棒,但是他(ta)們(men)的(de)矢(shi)(shi)量化(hua)精(jing)度往往較低。
4、2)基于(yu)深度學習(xi)的(de)(de)方法(fa)使用神經網(wang)絡將光(guang)柵圖(tu)(tu)(tu)(tu)像(xiang)轉化(hua)(hua)為可縮放矢量(liang)(liang)(liang)圖(tu)(tu)(tu)(tu)形。這些方法(fa)通過(guo)變分自動(dong)編碼器(qi)(vae)或(huo)是預先訓練的(de)(de)深度卷積網(wang)絡vgg提取光(guang)柵圖(tu)(tu)(tu)(tu)像(xiang)的(de)(de)特(te)征,然后利用長短期記憶遞歸網(wang)絡(lstm)或(huo)循環神經網(wang)絡(rnn)將圖(tu)(tu)(tu)(tu)像(xiang)特(te)征映射為svg參(can)數,實(shi)現圖(tu)(tu)(tu)(tu)像(xiang)的(de)(de)矢量(liang)(liang)(liang)化(hua)(hua),但是這些方法(fa)都(dou)只能對簡單(dan)圖(tu)(tu)(tu)(tu)像(xiang)進(jin)行矢量(liang)(liang)(liang)化(hua)(hua),對更為復雜的(de)(de)圖(tu)(tu)(tu)(tu)像(xiang),矢量(liang)(liang)(liang)化(hua)(hua)效果較差(cha)。
5、3)基于(yu)優化(hua)的方(fang)法(fa)使用梯(ti)度(du)下(xia)(xia)降法(fa)優化(hua)svg參(can)數實現對圖像的矢量化(hua),大致可以(yi)分為以(yi)下(xia)(xia)3類:
6、1.直接優(you)化的方法:隨(sui)機初始化svg參數(shu),以最小(xiao)化svg圖像與輸(shu)入光柵圖像的l2距離為目標,優(you)化svg參數(shu);
7、2.分(fen)層優(you)化的(de)方法:每次找出當前svg與(yu)輸(shu)入圖像差異最大(da)并且相(xiang)鄰像素顏色相(xiang)似的(de)區域(yu),用一個新的(de)貝塞爾封閉曲(qu)線進行擬(ni)合,不(bu)斷重復該(gai)過程實現對整張輸(shu)入圖像的(de)矢(shi)量化;
8、3.基于(yu)語(yu)義(yi)的(de)(de)方法:通過分(fen)割(ge)一(yi)切(qie)模型(sam)將(jiang)輸入光柵圖像分(fen)割(ge)為不同(tong)的(de)(de)語(yu)義(yi)區(qu)域(yu),然(ran)后對每個語(yu)義(yi)區(qu)域(yu)分(fen)配一(yi)定(ding)數量(liang)的(de)(de)貝塞爾封閉曲線進行優化擬合。
9、然而(er),由于(yu)優化效率低,這些(xie)優化的(de)(de)方法對每張圖像都需要較長的(de)(de)優化時間,需要大(da)量(liang)(liang)的(de)(de)時間和計算資源,限制了它們在大(da)規模、實時圖像矢量(liang)(liang)化場景下的(de)(de)應用。
10、總(zong)體而(er)言,以往的(de)(de)圖(tu)像矢量(liang)化方法要么對(dui)復雜圖(tu)像的(de)(de)重建(jian)質量(liang)較低,要么需要大量(liang)的(de)(de)計(ji)算時間,難以進行實(shi)際應用(yong)。
技術實現思路
1、本(ben)發明(ming)的(de)(de)(de)目(mu)的(de)(de)(de)是(shi)為了(le)提供(gong)一種基于(yu)超像素的(de)(de)(de)序列路徑(jing)矢量(liang)圖(tu)形(xing)合(he)成方(fang)法,快速、準確地(di)將光柵圖(tu)像轉換為svg。具(ju)體而言,本(ben)發明(ming)首先將輸入圖(tu)像分解(jie)為超像素,以(yi)幫助模(mo)(mo)型專注于(yu)重(zhong)建(jian)具(ju)有相似顏(yan)色(se)和紋理的(de)(de)(de)區域。然后,提出(chu)了(le)一個兩階段自訓(xun)練(lian)框架(jia),其(qi)中(zhong)使用(yong)(yong)粗粒(li)度模(mo)(mo)型重(zhong)建(jian)圖(tu)像的(de)(de)(de)主要結(jie)構,并使用(yong)(yong)細(xi)粒(li)度模(mo)(mo)型來豐富圖(tu)像細(xi)節,實(shi)現(xian)對輸入圖(tu)像從粗粒(li)度到細(xi)粒(li)度的(de)(de)(de)矢量(liang)化效果(guo)。此外,本(ben)發明(ming)提出(chu)了(le)一種新的(de)(de)(de)動態路徑(jing)規整損(sun)失(shi),以(yi)幫助細(xi)粒(li)度模(mo)(mo)型繼承粗粒(li)度模(mo)(mo)型的(de)(de)(de)知識,防(fang)止細(xi)粒(li)度模(mo)(mo)型收(shou)斂到局部最優解(jie)。
2、本(ben)發明的目的可以(yi)通(tong)過以(yi)下技(ji)術方案(an)來實現(xian):
3、一種基于超(chao)像素的(de)序列(lie)路徑矢量圖形合成方(fang)法,包括以下步(bu)驟(zou):
4、s1,將(jiang)輸入(ru)圖像分解為多個超(chao)像素;
5、s2,對(dui)每一(yi)超像素,輸入(ru)對(dui)應的粗粒(li)(li)度模型進(jin)行粗粒(li)(li)度重建,輸出第一(yi)svg路徑參數序(xu)列,并將其渲染為光柵圖(tu)像;
6、s3,將(jiang)粗粒(li)度重建(jian)后(hou)的光柵(zha)圖像和對應的超像素輸入細粒(li)度模型,輸出第二svg路徑(jing)參數序(xu)列,并將(jiang)其渲染(ran)為光柵(zha)圖像;
7、s4,對每一超(chao)像素(su),將第一和第二(er)svg路徑參數序列進行(xing)合并,并渲染為圖(tu)像,得到每一超(chao)像素(su)的(de)矢(shi)量化(hua)結果,合并所(suo)有超(chao)像素(su)的(de)矢(shi)量化(hua)結果,得到整張圖(tu)像的(de)矢(shi)量化(hua)結果。
8、所(suo)(suo)述(shu)(shu)(shu)粗粒度模(mo)(mo)型(xing)包括依(yi)次(ci)連接的(de)第(di)(di)(di)一(yi)(yi)vit編碼器、第(di)(di)(di)一(yi)(yi)交(jiao)叉(cha)注(zhu)意(yi)(yi)力(li)模(mo)(mo)塊(kuai)和(he)第(di)(di)(di)一(yi)(yi)自注(zhu)意(yi)(yi)力(li)模(mo)(mo)塊(kuai),其中(zhong)(zhong),所(suo)(suo)述(shu)(shu)(shu)第(di)(di)(di)一(yi)(yi)vit編碼器將(jiang)輸入(ru)的(de)超像素(su)拆分為圖像塊(kuai),并將(jiang)每一(yi)(yi)個(ge)圖像塊(kuai)當做一(yi)(yi)個(ge)token,輸入(ru)transformer模(mo)(mo)型(xing)中(zhong)(zhong)提取圖像特征(zheng);所(suo)(suo)述(shu)(shu)(shu)第(di)(di)(di)一(yi)(yi)交(jiao)叉(cha)注(zhu)意(yi)(yi)力(li)模(mo)(mo)塊(kuai)對第(di)(di)(di)一(yi)(yi)vit編碼器提取的(de)圖像特征(zheng)進(jin)行相關性(xing)計(ji)算,輸出具有路(lu)徑(jing)參(can)數形狀的(de)中(zhong)(zhong)間特征(zheng)向(xiang)量(liang);所(suo)(suo)述(shu)(shu)(shu)第(di)(di)(di)一(yi)(yi)自注(zhu)意(yi)(yi)力(li)模(mo)(mo)塊(kuai)將(jiang)中(zhong)(zhong)間特征(zheng)向(xiang)量(liang)映射為自注(zhu)意(yi)(yi)力(li)參(can)數,通(tong)過注(zhu)意(yi)(yi)力(li)機(ji)制輸出第(di)(di)(di)一(yi)(yi)svg路(lu)徑(jing)參(can)數序列。
9、所(suo)述(shu)(shu)細粒度模型包括(kuo)依次連接的卷(juan)積(ji)融合(he)模塊(kuai)、第二(er)(er)vit編碼器(qi)、第二(er)(er)交(jiao)叉注(zhu)意(yi)(yi)力模塊(kuai)和第二(er)(er)自注(zhu)意(yi)(yi)力模塊(kuai),其中,所(suo)述(shu)(shu)卷(juan)積(ji)融合(he)模塊(kuai)將(jiang)粗粒度模型重建(jian)的光柵圖像和對(dui)(dui)應的超(chao)像素進行(xing)疊加,并通(tong)過(guo)卷(juan)積(ji)網絡將(jiang)其映射(she)為融合(he)特(te)(te)征(zheng)(zheng)(zheng),所(suo)述(shu)(shu)融合(he)特(te)(te)征(zheng)(zheng)(zheng)與輸(shu)入(ru)(ru)超(chao)像素的尺寸一(yi)致;所(suo)述(shu)(shu)第二(er)(er)vit編碼器(qi)將(jiang)輸(shu)入(ru)(ru)的融合(he)特(te)(te)征(zheng)(zheng)(zheng)拆(chai)分為圖像塊(kuai),并將(jiang)每一(yi)個(ge)圖像塊(kuai)當做(zuo)一(yi)個(ge)token,輸(shu)入(ru)(ru)transformer模型中提(ti)取圖像特(te)(te)征(zheng)(zheng)(zheng);所(suo)述(shu)(shu)第二(er)(er)交(jiao)叉注(zhu)意(yi)(yi)力模塊(kuai)對(dui)(dui)第二(er)(er)vit編碼器(qi)提(ti)取的圖像特(te)(te)征(zheng)(zheng)(zheng)進行(xing)相關性(xing)計(ji)算,輸(shu)出具(ju)有路(lu)徑(jing)參(can)(can)數(shu)形狀的中間(jian)特(te)(te)征(zheng)(zheng)(zheng)向(xiang)量(liang);所(suo)述(shu)(shu)第二(er)(er)自注(zhu)意(yi)(yi)力模塊(kuai)將(jiang)中間(jian)特(te)(te)征(zheng)(zheng)(zheng)向(xiang)量(liang)映射(she)為自注(zhu)意(yi)(yi)力參(can)(can)數(shu),通(tong)過(guo)注(zhu)意(yi)(yi)力機(ji)制輸(shu)出第二(er)(er)svg路(lu)徑(jing)參(can)(can)數(shu)序列。
10、所(suo)述第一或第二(er)交叉注意力模(mo)塊將(jiang)對應的(de)vit編碼器提取到(dao)的(de)圖(tu)像特(te)征(zheng)tf通過權重矩陣wk和wv映射(she)到(dao)鍵和值,并(bing)計算圖(tu)像特(te)征(zheng)tf與可學習查詢向(xiang)量tl之間的(de)相關性(xing),輸出具(ju)有路徑參數形狀(zhuang)a×np的(de)中間特(te)征(zheng)向(xiang)量tf′:
11、
12、其(qi)中,所述可(ke)學(xue)習查詢向量(liang)tl包含a個(ge)token,每個(ge)token維度為(wei)np,wq、wk、wv為(wei)交(jiao)叉注意力機制的權重(zhong)矩陣,d為(wei)縮放因子。
13、所(suo)述第(di)一或第(di)二自注(zhu)(zhu)意力模塊通(tong)過權重(zhong)矩陣(zhen)wq′、wk′和wv′,將中間特征向(xiang)量tf′映射(she)為(wei)查詢、鍵和值,并通(tong)過注(zhu)(zhu)意力機制計算得到(dao)輸(shu)出的第(di)一svg路(lu)徑參(can)數序列s:
14、
15、其中,d為縮放因子。
16、所述(shu)粗(cu)粒度模(mo)型的(de)(de)損(sun)失(shi)(shi)函數(shu)包(bao)括l2損(sun)失(shi)(shi)、邊緣損(sun)失(shi)(shi)和路(lu)徑效率損(sun)失(shi)(shi),其(qi)中,所述(shu)路(lu)徑效率損(sun)失(shi)(shi)通過(guo)懲罰可(ke)見(jian)路(lu)徑的(de)(de)數(shu)量,鼓勵(li)模(mo)型以盡可(ke)能少的(de)(de)路(lu)徑重建圖像:
17、
18、其中,βi為預(yu)測(ce)路徑i的(de)不透明度參(can)數,n為粗粒度模型預(yu)測(ce)的(de)svg路徑條數,sign為符號函數。
19、隨機(ji)選擇(ze)一(yi)個(ge)值k∈(1,n-m),將粗(cu)粒(li)度(du)(du)模(mo)型預(yu)測(ce)的第一(yi)svg路(lu)徑(jing)參(can)數序(xu)列(lie)(lie)s={s1,s2,···,sn}拆分(fen)成兩(liang)個(ge)子序(xu)列(lie)(lie):s1={s1,s2,···sk}和s2={sk+1,sk+2,···,sn},其中,n、m分(fen)別為(wei)粗(cu)粒(li)度(du)(du)和細粒(li)度(du)(du)模(mo)型預(yu)測(ce)的svg路(lu)徑(jing)個(ge)數;將子序(xu)列(lie)(lie)s1渲(xuan)染為(wei)光柵(zha)圖像(xiang),與超像(xiang)素x一(yi)起輸入細粒(li)度(du)(du)模(mo)型預(yu)測(ce)第二svg路(lu)徑(jing)參(can)數序(xu)列(lie)(lie)s′={s′1,s′2…s′m},將子序(xu)列(lie)(lie)s2作(zuo)為(wei)目標序(xu)列(lie)(lie)訓練細粒(li)度(du)(du)模(mo)型。
20、所述細(xi)粒度(du)模型的(de)損(sun)失(shi)(shi)函數包(bao)括l2損(sun)失(shi)(shi)、邊緣損(sun)失(shi)(shi)和動(dong)態路(lu)徑(jing)規(gui)整(zheng)損(sun)失(shi)(shi),其中(zhong),所述動(dong)態路(lu)徑(jing)規(gui)整(zheng)損(sun)失(shi)(shi)用于確定一(yi)個最佳匹配match,以最小化(hua)目標路(lu)徑(jing)序列s2={sk+1,sk+2,···,sn}與預(yu)測的(de)第二svg路(lu)徑(jing)參數序列s’={s′1,s′2,···,s′m}之間的(de)累積距離:
21、
22、通(tong)過如(ru)下方(fang)式計(ji)算(suan)動(dong)態(tai)(tai)路(lu)徑(jing)規整損(sun)失:將(jiang)pi,j定義(yi)為si與s′j匹配(pei)(pei)時的(de)最小累積(ji)距(ju)離(li),qi,j定義(yi)為s′j與si之前的(de)一條路(lu)徑(jing)匹配(pei)(pei)時的(de)最小累積(ji)距(ju)離(li),使用動(dong)態(tai)(tai)規劃計(ji)算(suan)最終的(de)動(dong)態(tai)(tai)路(lu)徑(jing)規整損(sun)失pn,m,對于(yu)每個pi,j,它的(de)值等于(yu)qi,j-1和pi,j-1最小值與si和s′j之間的(de)距(ju)離(li)di,j的(de)和,對于(yu)每個qi,j,其(qi)在qi-1,j和pi-1,j之間取較小的(de)值,即:
23、pi,j=di,j+min(qi,j-1,pi,j-1)
24、qi,j=min(qi-1,j,pi-1,j)
25、所(suo)述l2損失為最小化(hua)粗粒(li)(li)度模型(xing)或細粒(li)(li)度模型(xing)重建(jian)的光柵圖像和(he)目(mu)標圖像x之(zhi)間的歸一化(hua)l2距(ju)離:
26、
27、其中,w、h為圖像(xiang)(xiang)x的(de)長寬,p為像(xiang)(xiang)素點的(de)坐(zuo)標,||·||2為l2范數,mask為超(chao)像(xiang)(xiang)素的(de)掩(yan)膜,在(zai)超(chao)像(xiang)(xiang)素內部的(de)像(xiang)(xiang)素值為1,在(zai)外部的(de)像(xiang)(xiang)素值為0;
28、所述(shu)邊緣損失通過計算超出超像(xiang)素(su)邊緣的像(xiang)素(su)占比,懲罰(fa)svg路徑越過邊緣的情況(kuang):
29、
30、其中(zhong)(zhong),sbinary為二值(zhi)化(hua)后的(de)svg路徑(jing)參(can)數序(xu)列,通過將預測的(de)序(xu)列路徑(jing)s中(zhong)(zhong)所有(you)svg路徑(jing)的(de)顏色置(zhi)為1,其余svg路徑(jing)的(de)顏色置(zhi)為0得(de)到;表示期望(wang)(wang),p代表圖像中(zhong)(zhong)的(de)一個(ge)像素,隨機變(bian)量p從mask中(zhong)(zhong)采(cai)樣,對每一個(ge)p,計(ji)算(suan)(r(sbinary)·(1-mask))與p從mask中(zhong)(zhong)被(bei)采(cai)樣的(de)概率的(de)值(zhi),并對所有(you)隨機變(bian)量p計(ji)算(suan)出的(de)值(zhi)求和得(de)到期望(wang)(wang)。
31、所述細粒(li)度模(mo)型(xing)的(de)第(di)(di)二(er)vit編(bian)碼器(qi)、第(di)(di)二(er)交叉注(zhu)意力模(mo)塊(kuai)與第(di)(di)二(er)自注(zhu)意力模(mo)塊(kuai)分別用粗粒(li)度模(mo)型(xing)訓練好(hao)的(de)第(di)(di)一vit編(bian)碼器(qi)、第(di)(di)一交叉注(zhu)意力模(mo)塊(kuai)與第(di)(di)一自注(zhu)意力模(mo)塊(kuai)的(de)參數作為初始化參數。
32、與現有(you)技術相比,本發明具有(you)以下(xia)有(you)益效(xiao)果:
33、本發明(ming)提(ti)出(chu)了(le)一(yi)種基于(yu)(yu)超(chao)像(xiang)(xiang)素(su)(su)的序列路徑矢(shi)(shi)(shi)量(liang)(liang)(liang)圖形合成方(fang)法,能(neng)夠快速(su)、準確地將光柵圖像(xiang)(xiang)轉換為svg。基于(yu)(yu)超(chao)像(xiang)(xiang)素(su)(su)的圖像(xiang)(xiang)分(fen)解方(fang)法,將復雜圖像(xiang)(xiang)的矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua)問(wen)題(ti)分(fen)解為簡(jian)單圖像(xiang)(xiang)的矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua)問(wen)題(ti),通(tong)過(guo)(guo)對紋理(li)、顏色相(xiang)似的超(chao)像(xiang)(xiang)素(su)(su)進(jin)行(xing)矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua),極(ji)大(da)地降(jiang)低了(le)圖像(xiang)(xiang)矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua)的難度(du)(du)(du)。此外,通(tong)過(guo)(guo)引入基于(yu)(yu)自教學的兩階(jie)段矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua)框架,從粗(cu)粒度(du)(du)(du)到細(xi)粒度(du)(du)(du)對每(mei)個超(chao)像(xiang)(xiang)素(su)(su)進(jin)行(xing)矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua),極(ji)大(da)地提(ti)升了(le)對細(xi)節的保(bao)持。本發明(ming)相(xiang)較于(yu)(yu)以往(wang)的圖像(xiang)(xiang)矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua)方(fang)法,不僅在(zai)矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua)精度(du)(du)(du)上取得了(le)較大(da)的提(ti)升,還進(jin)一(yi)步提(ti)升了(le)矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua)速(su)度(du)(du)(du),并且支(zhi)持并行(xing)化(hua)(hua)(hua)(hua),能(neng)夠促進(jin)圖像(xiang)(xiang)矢(shi)(shi)(shi)量(liang)(liang)(liang)化(hua)(hua)(hua)(hua)在(zai)大(da)規模(mo)場景下的應用。
34、1)矢(shi)量化精度的優(you)勢
35、本發(fa)明采用基于(yu)超像(xiang)素的(de)(de)(de)圖(tu)(tu)像(xiang)分解(jie)方法將目標圖(tu)(tu)像(xiang)分解(jie)為超像(xiang)素,由(you)于(yu)每個超像(xiang)素內(nei)部(bu)具(ju)有相(xiang)似的(de)(de)(de)紋理和顏(yan)色,大(da)(da)大(da)(da)簡化(hua)了矢量(liang)化(hua)難度(du),進一步引入的(de)(de)(de)兩(liang)階段自(zi)教學框架,從粗(cu)粒度(du)到細粒度(du)對(dui)超像(xiang)素進行(xing)矢量(liang)化(hua),極大(da)(da)地提升了圖(tu)(tu)像(xiang)矢量(liang)化(hua)的(de)(de)(de)精度(du)。
36、2)矢量化速度(du)的優(you)勢
37、本(ben)發明采用基(ji)(ji)于(yu)深度(du)(du)學習的方法(fa)實現(xian)圖(tu)像(xiang)矢(shi)量(liang)(liang)(liang)化(hua)(hua),相較于(yu)以(yi)往基(ji)(ji)于(yu)算法(fa)和基(ji)(ji)于(yu)優化(hua)(hua)的矢(shi)量(liang)(liang)(liang)化(hua)(hua)方法(fa),極(ji)大(da)(da)的提升了矢(shi)量(liang)(liang)(liang)化(hua)(hua)的速度(du)(du),此外,借助深度(du)(du)神經網絡(luo)的可(ke)并行能(neng)力,能(neng)夠(gou)同(tong)時對多張圖(tu)像(xiang)進行矢(shi)量(liang)(liang)(liang)化(hua)(hua),使(shi)其(qi)在能(neng)夠(gou)應用在大(da)(da)規模的圖(tu)像(xiang)矢(shi)量(liang)(liang)(liang)化(hua)(hua)場(chang)景中。