中文字幕无码日韩视频无码三区

一種機器人的人-機交互安全防護系統的制作方法

文檔序號:9481480閱讀:497來源:國(guo)知局
一種機器人的人-機交互安全防護系統的制作方法
【技術領域】
[0001] 本發明屬于機器人及人機交互技術領域,涉及一種機器人的人-機交互安全防護 系統。
【背景技術】
[0002] 在現代工業生產領域,一些工作往往需要機器人和人交互操作才能完成。這一過 程中,人手和機械人末端執行器的抵近接觸非常頻繁,人的安全自然成為關注的焦點。因 此,如何消除人和機器人之間的非正常接觸碰撞已成為首要的安全理念。關于人-機交互 操作的安全性,目前沒有統一的處理方法。
[0003] 現有的基于危險指數進行路徑及軌跡規劃的事前控制方法,雖然有較完善的理論 設計。但需要大量的人-機交互信息支撐,實時性要求高,工程實用性不強。
[0004] 有人提出關節柔順設計的方法,它通過降低電機轉子慣量到連桿的耦合性來提高 安全性。但是連桿本身的慣量和能量卻無法控制,同時在人-機碰撞時或后續時間,機器人 仍為位置控制模式,人-機之間的碰撞力不可控。因此,關節柔順設計不能從根本上解決安 全性問題。
[0005] 還有人提出在機器人末端執行器包裹黏彈性材料的方法來提高安全性,該法可在 一定程度上降低沖擊力和傷害程度,但該法過于單一,無法從根本上保證安全。
[0006] 上述所有方法方式較為單一,沒有融合其他有效方法,不能徹底解決安全性問題。 且多數目前還僅僅停留在理論研究階段,其實用性和前景也未知。

【發明內容】

[0007] 有鑒于此,本發明的目的在于提供一種機器人的人-機交互安全防護系統,該安 全防護系統能夠有效確保人-機交互操作時的安全性。
[0008] 為達到上述目的,本發明提供如下技術方案:
[0009] -種機器人的人-機交互安全防護系統,所述安全防護系統由處于人-機交互環 境中的語音提示裝置1、安裝于機器人擺臂末端執行器上的融合型傳感器I、覆蓋在機器人 擺臂末端執行器上的靈敏皮膚4以及信號傳遞線路組成。
[0010] 所述融合型傳感器I由六維力傳感器2和視覺傳感器3組成;所述視覺傳感器3 用于對人臉、人手和目標物進行發現和識別;所述六維力傳感器2用于測量三維直角坐標 系中三個力分量和三個力矩分量,通過力信息幫助機器人調整交互操作時的接觸力;所述 靈敏皮膚4采用主動紅外接近傳感器,并以環狀的形式覆蓋在末端執行器上;所述語音提 示裝置1用于語音播報當前的狀態、操作情況及是否出現錯誤,同時也可方便更改語音提 示器的提示詞。
[0011] 進一步,所述六維力傳感器2和視覺傳感器3之間采用融合反饋控制算法,所述 融合控制算法分為視覺和力覺兩路控制信號,為機器人系統提供力和視覺方面的綜合性信 息。
[0012] 進一步,所述視覺傳感器3采用傳感攝像頭。
[0013] 進一步,所述語音提示裝置1還可以采用聲光報警提示器。
[0014] 本發明的有益效果在于:本發明所述的安全防護系統基于多傳感器系統,并依托 融合型反饋控制算法,將視覺、力覺、膚覺傳感器全面而充分應用到人-機交互操作的全過 程中,全面、徹底地保證人-機交互操作時人的安全性;語音提示系統也使操作人員的操作 更加便捷,有效提升人-機之間的安全系數;同時可根據不同的使用環境對該系統進行修 改設置,工程實用性強。
【附圖說明】
[0015] 為了使本發明的目的、技術方案和有益效果更加清楚,本發明提供如下附圖進行 說明:
[0016] 圖1為本發明所述系統的結構示意圖;
[0017] 圖2為圖1中融合型傳感器I的局部放大圖;
[0018] 圖3為人-機交互安全距離示意圖;
[0019] 圖4為傳感器系統控制算法框圖;
[0020] 圖5為對應于相關事件和狀態的提不首不意圖。
【具體實施方式】
[0021] 下面將結合附圖,對本發明的優選實施例進行詳細的描述。
[0022] 圖1為本發明所述系統的結構示意圖,圖2為圖1中融合型傳感器I的局部放大 圖,如圖所示,所述安全防護系統由處于人-機交互環境中的語音提示裝置1、安裝于機器 人擺臂末端執行器上的融合型傳感器I、覆蓋在機器人擺臂末端執行器上的靈敏皮膚4以 及信號傳遞線路組成。
[0023] 所述融合型傳感器I由六維力傳感器2和視覺傳感器3組成;所述視覺傳感器3 用于對人臉、人手和目標物進行發現和識別;所述六維力傳感器2用于測量三維直角坐標 系中三個力分量和三個力矩分量,通過力信息幫助機器人調整交互操作時的接觸力;所述 靈敏皮膚4采用主動紅外接近傳感器,并以環狀的形式覆蓋在末端執行器上;所述語音提 示裝置1用于語音播報當前的狀態、操作情況及是否出現錯誤,同時也可方便更改語音提 示器的提示詞。在本實施例中,視覺傳感器3采用傳感攝像頭;進一步,所述語音提示裝置 1還可以采用聲光報警提示器。
[0024] 為了便于理解,在本實施例中對人-機交互環境中幾個坐標系作簡要描述,包括 大地坐標系、機器人末端執行器坐標系、六維力傳感器坐標系和視覺傳感器坐標系。所述大 地坐標系的定義如圖3所示,X軸水平向左,y軸豎直向上,z軸垂直紙面向外。在人-機交 互操作時,人臉沿z向面對機器人,人手攜帶目標物亦沿z向接近機器人末端執行器。所述 其余坐標系為局部坐標系,其中機器人末端執行器坐標系各坐標軸方向由安裝位置設定, 六維力傳感器坐標系和視覺傳感器坐標系各坐標軸方向由初始設計而定。
[0025] 如圖3所示,在人-機交互環境中需要確定人的安全作業范圍。其中人手距人臉 沿z向的安全距離要大于dl,人臉距機器人末端執行器沿z向的距離處于d2_~d2 _之 間。dl、d2min、d2max的具體值可根據機器人型號和操作類型確定。本實施例中dl = 90mm, d2min= 160mm,d2max= 2500mm。
[0026] 在人-機交互過程中,要經歷人出現、人靠近、人手中目標物接近機器人末端執行 器、末端執行器夾緊目標物、離開等不同狀態。對應地,在經歷上述狀態時,融合型傳感器可 以將采集到的視覺信息、力/力矩信息和膚覺信息可以及時準確傳送給機器人系統,以便 機器人做出準確的軌跡規劃動作,避免傷及到人。先是視覺傳感器識別人臉及目標物,并完 成信息傳送。而后是夾持過程中力傳感器的六維力信息傳送。每一狀態都由不同傳感器起 主導作用,但不同狀態時各傳感器均同臺協作工作,發揮信息融合效應。所述視覺和力覺傳 感器保證人員安全的工作原理如下:
[0027] 所述視覺傳感器保證人員安全的工作原理如圖1、圖3所示,在人及目標物靠近 機器人過程中,依據一定的視覺識別算法,視覺傳感器可以識別出如圖1所示Θ角范圍內 (本實施例取70° )的人臉、人手及目標物。同樣,當機器人系統能夠探測到人臉時,機器 人的運動情況也在人的視野范圍之內。機器人有了視覺識別功能,就可以判斷出人是否能 夠跟隨機器人的動作并做好應對措施,這具有積極意義。當視覺信息中出現如下情況時,出 于保護人員安全起見,視覺識別算法會自動取消機器人所執行任務:1)機器人系統不能探 測到人臉;2)人手距人臉沿z向的距離小于安全距離dl = 90mm ;3)操作人員手中沒有目 標物。
[0028] 所述力傳感器保證人員安全的工作原理為:在人手及手中目標物靠近機器人末端 執行器的過程中,視覺傳感器會辨別人手及手中目標物并展開視覺追蹤。當目標物接近機 器人末端執行器時,系統根據視覺傳感器提供的目標物位姿信息判斷出能否抓取目標物并 計算出合理的抓取位置。抓取目標物時,六維力傳感器會及時反饋夾緊力的大小和方向。融
當前第1頁1 2 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1