中文字幕无码日韩视频无码三区

一種基于深度學習的多機器人柔性物體伺服方法

文(wen)檔序號:39426472發布(bu)日期(qi):2024-09-20 22:23閱讀:13來(lai)源:國知局(ju)
一種基于深度學習的多機器人柔性物體伺服方法

本發明涉及多機(ji)協同,特別涉及一種基于深度(du)學習的(de)多機(ji)器人柔(rou)性物體伺服方法。


背景技術:

1、隨著工(gong)(gong)業(ye)自(zi)動化的(de)不斷進步,在工(gong)(gong)業(ye)制(zhi)造(zao)(zao)領域中有更多(duo)的(de)任(ren)務需要(yao)機(ji)器人(ren)(ren)來自(zi)主完(wan)成(cheng)(cheng)(cheng)。在航(hang)空制(zhi)造(zao)(zao)領域中主要(yao)是以剛體零(ling)(ling)部(bu)(bu)件(jian)為主,但也存在一部(bu)(bu)分(fen)具有一定(ding)可形(xing)變屬性的(de)零(ling)(ling)件(jian),比如電(dian)纜、長桁等。實現對三維可形(xing)變物體的(de)操(cao)作,機(ji)器人(ren)(ren)能夠在航(hang)空制(zhi)造(zao)(zao)場景下獨立或(huo)者(zhe)與(yu)人(ren)(ren)協同(tong)完(wan)成(cheng)(cheng)(cheng)更多(duo)的(de)裝配(pei)任(ren)務,例(li)如,飛機(ji)壁(bi)板裝配(pei)時,工(gong)(gong)業(ye)機(ji)器人(ren)(ren)抓取長桁零(ling)(ling)部(bu)(bu)件(jian)裝配(pei)到蒙皮上;飛機(ji)艙內(nei)線纜裝配(pei)中的(de)機(ji)器人(ren)(ren)應該快(kuai)速(su)精準地(di)抓取線纜伺服成(cheng)(cheng)(cheng)一定(ding)形(xing)狀進行(xing)裝配(pei);還包(bao)括飛機(ji)部(bu)(bu)分(fen)零(ling)(ling)件(jian)的(de)復合(he)材料的(de)鋪(pu)覆,通過多(duo)機(ji)器人(ren)(ren)和人(ren)(ren)協同(tong)完(wan)成(cheng)(cheng)(cheng),提升(sheng)工(gong)(gong)藝(yi)精度(du)(du)和鋪(pu)覆的(de)速(su)度(du)(du)。

2、然(ran)而,現在可(ke)形(xing)(xing)變物體(ti)(ti)操作(dom)任(ren)然(ran)存(cun)在許(xu)多的(de)(de)挑戰(zhan),對于剛體(ti)(ti)僅需要6個(ge)自由(you)度(dof)便可(ke)以表示(shi),可(ke)形(xing)(xing)變物體(ti)(ti)形(xing)(xing)狀需要潛在無限個(ge)自由(you)度維(wei)度來表示(shi)。因此在技術層面需要解決感(gan)知變形(xing)(xing)的(de)(de)復雜性、軟體(ti)(ti)高自由(you)度、變形(xing)(xing)模型中非線性的(de)(de)復雜性這三個(ge)層面的(de)(de)挑戰(zhan)。針對上述問(wen)題(ti)我們將(jiang)通過提取可(ke)形(xing)(xing)變物體(ti)(ti)的(de)(de)點(dian)云圖像特征,利用神經網絡來訓練3d可(ke)變形(xing)(xing)物體(ti)(ti)形(xing)(xing)狀伺服的(de)(de)控(kong)制(zhi)器,并采用多機協同的(de)(de)方式來實現形(xing)(xing)狀伺服控(kong)制(zhi)的(de)(de)任(ren)務(wu)。

3、在工(gong)業(ye)制(zhi)造領域中(zhong),針對可(ke)變(bian)形(xing)(xing)(xing)的(de)(de)(de)(de)(de)(de)(de)物(wu)體(ti)相(xiang)關的(de)(de)(de)(de)(de)(de)(de)任(ren)務,如線纜形(xing)(xing)(xing)狀(zhuang)(zhuang)識別、復(fu)合材料(liao)鋪布提出(chu)了多(duo)種解(jie)決方(fang)(fang)(fang)案(an)。有(you)(you)使(shi)用(yong)形(xing)(xing)(xing)狀(zhuang)(zhuang)跟(gen)蹤的(de)(de)(de)(de)(de)(de)(de)方(fang)(fang)(fang)法(fa)(fa)(fa),采用(yong)單(dan)目(mu)相(xiang)機,或3d相(xiang)機,但(dan)是這(zhe)些(xie)(xie)方(fang)(fang)(fang)法(fa)(fa)(fa)的(de)(de)(de)(de)(de)(de)(de)應用(yong)對象局限性較大。也(ye)有(you)(you)學(xue)(xue)者提出(chu)基于(yu)(yu)模(mo)型的(de)(de)(de)(de)(de)(de)(de)形(xing)(xing)(xing)狀(zhuang)(zhuang)伺(si)(si)服方(fang)(fang)(fang)法(fa)(fa)(fa),在基于(yu)(yu)模(mo)型的(de)(de)(de)(de)(de)(de)(de)形(xing)(xing)(xing)狀(zhuang)(zhuang)伺(si)(si)服中(zhong),有(you)(you)限元方(fang)(fang)(fang)法(fa)(fa)(fa)(fem)是使(shi)用(yong)最為廣泛的(de)(de)(de)(de)(de)(de)(de),提出(chu)了一種基于(yu)(yu)開環模(mo)擬的(de)(de)(de)(de)(de)(de)(de)控(kong)制(zhi)方(fang)(fang)(fang)法(fa)(fa)(fa),其中(zhong)將期(qi)望的(de)(de)(de)(de)(de)(de)(de)變(bian)形(xing)(xing)(xing)直接映射(she)到關節角(jiao)命令。在手持軟物(wu)體(ti)操(cao)縱(zong)的(de)(de)(de)(de)(de)(de)(de)開環控(kong)制(zhi)方(fang)(fang)(fang)法(fa)(fa)(fa)中(zhong)使(shi)用(yong)了fem。但(dan)是機械(xie)模(mo)型是一種可(ke)靠的(de)(de)(de)(de)(de)(de)(de)方(fang)(fang)(fang)案(an),但(dan)是成本高,且依賴于(yu)(yu)物(wu)體(ti)故有(you)(you)的(de)(de)(de)(de)(de)(de)(de)機械(xie)屬性。因此有(you)(you)人提出(chu)了無(wu)模(mo)型的(de)(de)(de)(de)(de)(de)(de)形(xing)(xing)(xing)狀(zhuang)(zhuang)伺(si)(si)服方(fang)(fang)(fang)法(fa)(fa)(fa),一種是基于(yu)(yu)傳感器的(de)(de)(de)(de)(de)(de)(de)變(bian)形(xing)(xing)(xing)雅可(ke)比(bi)(bi),如在線傳感器測量被用(yong)于(yu)(yu)估計在形(xing)(xing)(xing)狀(zhuang)(zhuang)伺(si)(si)服中(zhong)使(shi)用(yong)的(de)(de)(de)(de)(de)(de)(de)變(bian)形(xing)(xing)(xing)雅可(ke)比(bi)(bi)。但(dan)是這(zhe)類方(fang)(fang)(fang)法(fa)(fa)(fa)算(suan)法(fa)(fa)(fa)計算(suan)復(fu)雜(za),并且對噪聲(sheng)敏感。近(jin)些(xie)(xie)年來,對可(ke)變(bian)形(xing)(xing)(xing)物(wu)體(ti)控(kong)制(zhi)越來越趨向(xiang)于(yu)(yu)采用(yong)基于(yu)(yu)學(xue)(xue)習(xi)的(de)(de)(de)(de)(de)(de)(de)方(fang)(fang)(fang)法(fa)(fa)(fa)。其中(zhong)強(qiang)化(hua)學(xue)(xue)習(xi)(rl)是最廣泛使(shi)用(yong)的(de)(de)(de)(de)(de)(de)(de)方(fang)(fang)(fang)法(fa)(fa)(fa)。這(zhe)些(xie)(xie)方(fang)(fang)(fang)法(fa)(fa)(fa)雖(sui)然相(xiang)對成功,但(dan)是這(zhe)些(xie)(xie)方(fang)(fang)(fang)法(fa)(fa)(fa)也(ye)存在一定的(de)(de)(de)(de)(de)(de)(de)局限性。

4、對(dui)(dui)于(yu)3d可變(bian)形物(wu)體(ti)形狀控制的(de)(de)解(jie)決方(fang)(fang)案可以(yi)劃分為(wei)基(ji)于(yu)學(xue)習(xi)和基(ji)于(yu)非學(xue)習(xi)的(de)(de)兩類方(fang)(fang)法。在基(ji)于(yu)非學(xue)習(xi)的(de)(de)方(fang)(fang)法中,一(yi)系(xi)列研究將物(wu)體(ti)上的(de)(de)幾何特征定義為(wei)狀態表示(shi)。研究人員(yuan)使(shi)(shi)用這(zhe)(zhe)種(zhong)表示(shi)執行自適應(ying)線性控制的(de)(de)視覺伺服。然而(er),這(zhe)(zhe)些方(fang)(fang)法僅(jin)適用于(yu)具(ju)有明顯(xian)紋理(li)的(de)(de)已知對(dui)(dui)象(xiang),并且無法推廣到各種(zhong)對(dui)(dui)象(xiang)。這(zhe)(zhe)種(zhong)表述僅(jin)控制個別點(dian)(dian)的(de)(de)位移,不能充分反映物(wu)體(ti)的(de)(de)3d形狀。為(wei)了(le)實現精確控制,必須使(shi)(shi)用大量(liang)特征點(dian)(dian),從而(er)使(shi)(shi)控制對(dui)(dui)噪(zao)聲和遮(zhe)擋高(gao)度敏感。另一(yi)方(fang)(fang)面,其他基(ji)于(yu)非學(xue)習(xi)的(de)(de)方(fang)(fang)法使(shi)(shi)用2d圖像輪廓來表示(shi)物(wu)體(ti)形狀,但(dan)這(zhe)(zhe)嚴重限制了(le)可控的(de)(de)3d變(bian)形空間。


技術實現思路

1、本發明提供了一種基于深度學習的(de)多(duo)機器人柔性物(wu)體伺服方法,以解(jie)決背景技術中提到的(de)技術問題。

2、為達到上述(shu)目(mu)的,本發明的技術方案是這樣實現的:

3、本發明(ming)提供了一種基于(yu)深度學習(xi)的(de)多機器(qi)人柔性(xing)物體(ti)伺(si)服方(fang)法,包括如下步驟:

4、s1、構(gou)建(jian)機器(qi)人(ren)仿真模(mo)型(xing)(xing)和(he)柔性物體(ti)仿真模(mo)型(xing)(xing),導入仿真平臺,搭(da)建(jian)多機協同(tong)操作柔性物體(ti)裝(zhuang)配場景;

5、s2、依據外部相機(ji)信息(xi),確認柔(rou)性物體位置以及(ji)抓(zhua)(zhua)取點,控制雙(shuang)機(ji)器人協同抓(zhua)(zhua)取柔(rou)性物體;

6、s3、雙機器(qi)(qi)人(ren)(ren)協(xie)同柔(rou)性物體(ti)伺服成多(duo)組(zu)形狀(zhuang),并記錄柔(rou)性物體(ti)的點云信息(xi)和機器(qi)(qi)人(ren)(ren)末(mo)端位置信息(xi),得到多(duo)組(zu)模型(xing)訓(xun)練數據;

7、s4、將多(duo)組模(mo)型訓(xun)(xun)練數據中(zhong)的點(dian)(dian)云信息(xi)輸入到(dao)(dao)點(dian)(dian)云特征提(ti)取(qu)器中(zhong),提(ti)取(qu)點(dian)(dian)云信息(xi)的特征向量,將提(ti)取(qu)到(dao)(dao)的特征向量與機械臂末端位置信息(xi)輸入到(dao)(dao)deformernet網絡中(zhong),并利用deformernet網絡訓(xun)(xun)練形變控制模(mo)塊;

8、s5、提前收集一組隨機生成的(de)形狀點云(yun)信(xin)息,將(jiang)點云(yun)信(xin)息導(dao)入到訓練好的(de)形變控(kong)制模(mo)塊中,形變控(kong)制模(mo)塊輸出運動指令,控(kong)制雙機器人(ren)協(xie)同(tong)抓(zhua)取柔性物體,并將(jiang)物體形狀伺服到目標(biao)形狀。

9、進一步地,所述s1具(ju)體包括如下(xia)步驟:

10、s11、根據(ju)機(ji)器人的(de)關節信息、連桿參數(shu),并采用編(bian)程語言編(bian)寫機(ji)器人的(de)urdf文件,設置機(ji)器人的(de)連桿位置關系、關節類型(xing)、各模塊部件碰(peng)撞體積,搭(da)建機(ji)器人仿真模型(xing);

11、s12、設(she)置柔(rou)性(xing)(xing)物(wu)(wu)體(ti)體(ti)積(ji)(ji)參數,通過ftetwild算法生成(cheng)柔(rou)性(xing)(xing)物(wu)(wu)體(ti)四邊形網格文(wen)件,結合有限元參數通過編程(cheng)語言編寫進柔(rou)性(xing)(xing)物(wu)(wu)體(ti)的(de)(de)urdf文(wen)件,設(she)置柔(rou)性(xing)(xing)物(wu)(wu)體(ti)的(de)(de)楊氏模(mo)量、碰撞體(ti)積(ji)(ji)、體(ti)積(ji)(ji)密度,構(gou)建柔(rou)性(xing)(xing)物(wu)(wu)體(ti)仿真模(mo)型;

12、s13、將機器人仿真模型和柔(rou)性物體仿真模型的urdf文件共(gong)同導入到(dao)仿真平臺中(zhong)搭建多機協同操作柔(rou)性物體裝配(pei)場景。

13、進一步(bu)(bu)地,所述s2具體包括(kuo)如下步(bu)(bu)驟:

14、s21、將相機(ji)采集到的點(dian)云圖像信息(xi)通過pcl中基于ransac點(dian)云分割算法得到柔性物體單獨的點(dian)云圖像信息(xi);

15、s22、采用啟發(fa)式算法,根據柔性物體的(de)形狀點云信(xin)息和柔性物體中(zhong)心點的(de)坐標(biao)信(xin)息,判斷柔性物體是否存在(zai)頂面,依據中(zhong)心點坐標(biao)信(xin)息在(zai)柔性物體表(biao)面上生成以中(zhong)心點為中(zhong)點的(de)兩個對稱的(de)機器人末(mo)端抓(zhua)取點,并將抓(zhua)取點的(de)坐標(biao)信(xin)息傳輸給機器人;

16、s23、機器人通過內(nei)置(zhi)的末端位置(zhi)控制器運動到抓取點(dian)的位置(zhi),關閉夾(jia)爪,完成抓取。

17、進一步地,所述s3具體(ti)包括如(ru)下步驟:

18、s31、預先生成(cheng)(cheng)條的(de)隨機(ji)軌跡(ji),機(ji)器人(ren)將(jiang)沿隨機(ji)軌跡(ji)運動,每個柔性物體將(jiang)會生成(cheng)(cheng)種隨機(ji)形(xing)狀(zhuang);

19、s32、機器(qi)人(ren)操作柔性物體的過程中,采用主從控制算法對機器(qi)人(ren)進行控制;

20、具(ju)體的(de)(de),對于雙機(ji)(ji)器(qi)人(ren)(ren),我們將一臺(tai)機(ji)(ji)器(qi)人(ren)(ren)設置為主(zhu)機(ji)(ji),另(ling)外一臺(tai)機(ji)(ji)器(qi)人(ren)(ren)設置為從(cong)(cong)機(ji)(ji),我們將主(zhu)機(ji)(ji)的(de)(de)末端(duan)位置和(he)關(guan)節角(jiao)度同(tong)步(bu)給從(cong)(cong)機(ji)(ji)的(de)(de)末端(duan)位置和(he)關(guan)節角(jiao)度,實(shi)現主(zhu)機(ji)(ji)和(he)從(cong)(cong)機(ji)(ji)同(tong)步(bu)抓(zhua)取完成柔性物體形狀伺服的(de)(de)任(ren)務;

21、s33、在(zai)機器人操作物體的(de)(de)過程中,每(mei)條(tiao)軌(gui)跡設(she)(she)置(zhi)個時間檢查點(dian)(dian)t,通過仿真(zhen)平(ping)臺中相機在(zai)設(she)(she)置(zhi)的(de)(de)時間檢查點(dian)(dian)里記錄(lu)當前(qian)柔(rou)性物體形狀的(de)(de)點(dian)(dian)云(yun)和機器人末(mo)端執行器的(de)(de)位姿信(xin)息;

22、s34、將輸(shu)入的時(shi)間(jian)檢查點(dian)t下的當前點(dian)云和目標形狀點(dian)云組成監督數據輸(shu)入-輸(shu)出對;并計算軌跡的末端處機器人的末端位(wei)置(zhi)和每個時(shi)間(jian)檢查點(dian)t機器人末端位(wei)置(zhi)之間(jian)的位(wei)移,得到組模型訓練數據。

23、進一步(bu)地,所述(shu)s4具體包括(kuo)如下步(bu)驟:

24、s41、將s34中得到的(de)(de)模型訓練數(shu)據中的(de)(de)點云信(xin)(xin)息(xi)(xi)通過下采樣(yang)方(fang)法降低點云的(de)(de)數(shu)量,對(dui)點云信(xin)(xin)息(xi)(xi)做輕量化處理;

25、s42、將輕量化處(chu)理后的(de)點(dian)云信息通過三層連續(xu)的(de)pointconv卷積層組成(cheng)的(de)特(te)征(zheng)提取器,連續(xu)輸出(chu)第一(yi)設定(ding)維度(du)點(dian)以(yi)及一(yi)個(ge)第二(er)設定(ding)維度(du)的(de)特(te)征(zheng)向量;

26、s43、將特征(zheng)提(ti)取器設置為(wei)(wei),輕量(liang)化處理后(hou)的(de)點云(yun)作為(wei)(wei)輸入(ru)(ru)后(hou)輸出的(de)形(xing)狀(zhuang)特征(zheng)向量(liang)定義(yi)為(wei)(wei),將當前點云(yun)和(he)(he)目標(biao)形(xing)狀(zhuang)點云(yun)輸入(ru)(ru)到deformernet網絡的(de)特征(zheng)提(ti)取器中,分別生(sheng)成特征(zheng)向量(liang)和(he)(he),此處,目標(biao)形(xing)狀(zhuang)點云(yun)即為(wei)(wei)機械臂末(mo)端位(wei)置信(xin)息;然后(hou)取兩者的(de)差(cha)值得到當前點云(yun)和(he)(he)目標(biao)形(xing)狀(zhuang)點云(yun)的(de)特征(zheng)位(wei)移;

27、;

28、s44、定義變形控制(zhi)函數為,以s43得到的特征位移和變形控制(zhi)函數構建(jian)形變控制(zhi)模塊;

29、s45、將s42中提取到的(de)第二設定維度的(de)特征向(xiang)量傳遞(di)給形(xing)變控(kong)制模塊,形(xing)變控(kong)制模塊由一系列全連接(jie)層組成,通(tong)過(guo)全連接(jie)輸出(chu)層映射(she)出(chu)機械臂末(mo)端所需(xu)的(de)3d位移;

30、s46、構建(jian)損(sun)(sun)失函數,計算(suan)映(ying)射出的(de)機械臂末端所需的(de)3d位(wei)移與實際所需的(de)3d位(wei)移之間的(de)損(sun)(sun)失,循環(huan)s42至(zhi)s46,通過反(fan)向傳播算(suan)法更新deformernet網絡中形變控制模(mo)塊的(de)參數,逐步減小損(sun)(sun)失函數的(de)數值(zhi),直至(zhi)收斂,得到(dao)訓(xun)練后的(de)形變控制模(mo)塊。

31、進一(yi)步地(di),所述s44中(zhong)的形變控制模塊采用公式(shi)表示,具體如下:

32、;

33、其中,表示形(xing)變(bian)控制(zhi)模塊(kuai)。

34、進(jin)一步(bu)地(di),所述s45中(zhong)的一系列(lie)全連接層分(fen)別(bie)含有128、64和32個神(shen)經(jing)單元。

35、進一步(bu)地(di),所述s5具體(ti)包括(kuo)如下步(bu)驟(zou):

36、s51、隨(sui)機(ji)生成a組軌跡,驅動機(ji)器(qi)人操作(zuo)柔性物體伺服出a組隨(sui)機(ji)目標形狀,并通(tong)過(guo)相機(ji)采集(ji)a組柔性物體的目標形狀點云,得(de)到測(ce)試(shi)集(ji),并將測(ce)試(shi)集(ji)中的數(shu)據輸入到已經訓練好的形變控制模塊中;

37、s52、通過相機獲取得到當前(qian)柔(rou)性物(wu)(wu)體(ti)的(de)點云信(xin)息和位置信(xin)息,通過啟發式算(suan)法(fa)在柔(rou)性物(wu)(wu)體(ti)表面(mian)推(tui)算(suan)出抓取點;

38、s53、根(gen)據抓取(qu)(qu)(qu)點位(wei)置,位(wei)置控制器(qi)驅動(dong)機器(qi)人運動(dong)到抓取(qu)(qu)(qu)點,夾爪閉合抓取(qu)(qu)(qu)目標(biao)物體;

39、s54、形(xing)變控制模塊根據當前物(wu)體(ti)形(xing)狀點云(yun)和目(mu)標形(xing)狀點云(yun)輸出(chu)機(ji)器人的(de)運動(dong)(dong)指(zhi)令z,機(ji)器人根據形(xing)變控制模塊輸出(chu)的(de)運動(dong)(dong)指(zhi)令z完成形(xing)狀伺服(fu)的(de)任務,并記錄軌跡末端處柔性物(wu)體(ti)的(de)形(xing)狀點云(yun)圖像信息(xi);

40、s55、計算(suan)目標形(xing)(xing)(xing)狀點云(yun)和形(xing)(xing)(xing)狀點云(yun)圖(tu)像信息之間的(de)(de)倒角(jiao)距離(li),判(pan)斷計算(suan)得(de)到的(de)(de)倒角(jiao)距離(li)是(shi)否(fou)小于預設(she)值,如果是(shi),說明柔(rou)性物體已經伺(si)服到我們所要求的(de)(de)目標形(xing)(xing)(xing)狀,完成了形(xing)(xing)(xing)狀伺(si)服任務;如果否(fou),則進入s56中;

41、s56、輸入點(dian)云(yun)到(dao)訓練好的形變(bian)控制模塊,并采集運動到(dao)目標(biao)點(dian)后的零件真實點(dian)云(yun);

42、s57、計算當(dang)前點云(yun)與目標點云(yun)之間(jian)的倒角(jiao)距離;

43、s58、判斷計算(suan)得(de)到(dao)的(de)倒(dao)角距離(li)是(shi)否(fou)小于預設值(zhi)(zhi),如(ru)果是(shi),說明柔性(xing)物體已經(jing)伺服到(dao)我(wo)們(men)所要求的(de)目(mu)標(biao)形狀(zhuang),完成了(le)形狀(zhuang)伺服任(ren)務(wu);如(ru)果否(fou),則循環s56至s58,直至計算(suan)得(de)到(dao)的(de)倒(dao)角距離(li)是(shi)否(fou)小于預設值(zhi)(zhi)。

44、進(jin)一步(bu)地,所述s55中計算目(mu)標形狀(zhuang)點(dian)云和形狀(zhuang)點(dian)云圖(tu)像(xiang)信息之間的(de)倒角(jiao)距離,采用公式表(biao)示,具體如下(xia):

45、;

46、其中,是當前(qian)采(cai)集到(dao)的形狀(zhuang)點云信息;是當前(qian)的目標(biao)形狀(zhuang)點云。

47、進一步(bu)地(di),所(suo)述s55以及s58中的預設值為0.5。

48、本發(fa)明(ming)的(de)有(you)益效果(guo):

49、(1)節約(yue)成本(ben):

50、目前傳統方(fang)法需要(yao)人工多次反(fan)復(fu)調試,自主(zhu)隨(sui)機采集(ji)信息能(neng)力(li)較差,一部(bu)分弱剛(gang)性(xing)零件無法多次反(fan)復(fu)使用,人力(li)成本高,耗(hao)材成本高,耗(hao)時長。此方(fang)法通(tong)過(guo)在仿真環境下(xia)生成多組隨(sui)機軌(gui)跡(ji),對不同楊氏模量的(de)物體(ti)進行反(fan)復(fu)操作(zuo)(zuo),并通(tong)過(guo)環境內置的(de)深度(du)相機采集(ji)操作(zuo)(zuo)物體(ti)的(de)點云圖像(xiang)信息,減(jian)輕人力(li)成本,減(jian)少耗(hao)材成本。

51、(2)任務(wu)拓展性高:

52、目前工業(ye)(ye)裝配(pei)(pei)領域主(zhu)要的(de)(de)對(dui)象(xiang)仍然還(huan)是(shi)(shi)剛性(xing)(xing)物(wu)體,并(bing)且(qie)多以機(ji)器人作(zuo)(zuo)(zuo)業(ye)(ye)為主(zhu),本(ben)發明采用雙(shuang)機(ji)器人協同(tong)作(zuo)(zuo)(zuo)業(ye)(ye),并(bing)且(qie)面對(dui)的(de)(de)操作(zuo)(zuo)(zuo)對(dui)象(xiang)是(shi)(shi)柔性(xing)(xing)的(de)(de)工件(jian)。能夠大幅度拓展機(ji)器人裝配(pei)(pei)任務的(de)(de)豐富性(xing)(xing),使機(ji)器人能夠進一步的(de)(de)參與到航空裝配(pei)(pei)的(de)(de)場(chang)景中,進一步推進機(ji)器人覆(fu)蓋人類作(zuo)(zuo)(zuo)業(ye)(ye)的(de)(de)場(chang)景,實現工廠(chang)無人化,裝配(pei)(pei)自動化。

53、(3)魯棒性高:

54、本方法相較于非學(xue)習的(de)(de)(de)方法,本發(fa)明采用神經網絡訓練(lian)形(xing)變(bian)控制(zhi)模(mo)塊,通(tong)過采集大量的(de)(de)(de)操(cao)作(zuo)物體的(de)(de)(de)點(dian)云信息,輸入(ru)到全連接神經網絡中訓練(lian)形(xing)變(bian)控制(zhi)模(mo)塊,能(neng)夠學(xue)習到更(geng)多形(xing)狀下(xia)對(dui)應的(de)(de)(de)操(cao)作(zuo)點(dian)的(de)(de)(de)位置,面對(dui)不同的(de)(de)(de)形(xing)狀和不同的(de)(de)(de)楊氏模(mo)量的(de)(de)(de)操(cao)作(zuo)對(dui)象都(dou)能(neng)夠完(wan)成對(dui)應的(de)(de)(de)形(xing)狀伺服任務。

55、(4)精準(zhun)性高:

56、本(ben)發明(ming)在(zai)仿真平臺中(zhong)通過有限(xian)云(yun)模型(xing)的(de)表(biao)示(shi)方法(fa)能(neng)夠更加準確地描述操作物體的(de)物理特性(xing);并且采用全連接神經網絡(luo)(luo)訓(xun)練(lian)形(xing)(xing)變控(kong)制模塊(kuai),網絡(luo)(luo)每層含有多(duo)(duo)個神經單元,能(neng)夠更好的(de)學習(xi)到點(dian)云(yun)本(ben)身的(de)圖像特征(zheng)。并且在(zai)多(duo)(duo)機協同方面(mian)采用主從控(kong)制方法(fa),能(neng)夠完成更加精準的(de)形(xing)(xing)狀伺服(fu)任務。

當前第1頁1 2 
網友詢問留(liu)言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1