跳到主要內容

臺灣博碩士論文加值系統

(216.73.216.88) 您好!臺灣時間:2026/02/16 02:45
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

: 
twitterline
研究生:楊富雄
研究生(外文):FuHsiung Yang
論文名稱:仿人行為機器人視覺學習之研究
論文名稱(外文):The Study of Visual Imitation of Human Behavior by Using a Humanoid Robot
指導教授:黃有評黃有評引用關係
指導教授(外文):Yo-Ping Huang
口試委員:朱鴻棋,李祖添,劉珣瑛,練光祐
口試日期:2015-07-02
學位類別:碩士
校院名稱:國立臺北科技大學
系所名稱:電機工程研究所
學門:工程學門
學類:電資工程學類
論文種類:學術論文
畢業學年度:103
語文別:中文
中文關鍵詞:感應器、機器人視覺、人體骨架追蹤
外文關鍵詞:SensorHumanoid Robot VisionHuman Skeletal Tracking
相關次數:
  • 被引用被引用:2
  • 點閱點閱:247
  • 評分評分:
  • 下載下載:55
  • 收藏至我的研究室書目清單書目收藏:1
本論文主要藉由人類思考判斷控制與人體模擬感測器控制機器人行為,以執行搬運重物、執行救災任務或至未知環境執行任務之一種設計理念。人類經驗是由於接觸自然界萬物變化進而理解其運行規律與特性展現所日積月累堆積而成的知識智庫,具有判斷最佳決策的特性,即使現今機器人智慧型系統亦無法取代為控制機器運作之核心。本研究採用Kinect感應器實現此研究目的,藉由其近紅外線發射器產生激光散斑對操作者身體取得三維座標數值,進而回傳資訊至電腦內產生人體三維建模並進行人體骨架追蹤,再將骨架所在向量(X,Y,Z軸值)位置透過USB裝置同步傳輸至仿人型機器人微控制器內,驅動機體內馬達運作,並使用PID控制器維持穩定性,達成與人體成鏡像動作,即與人體肢體動作一致的特性。
This study presents a design concept based on human thinking. The design involved using a simulation sensor to control the behavior of robots for lifting heavy objects, engaging in relief missions, or executing missions in unknown environments. Humans gain experience by interacting with various objects in nature and comprehending the operating rules and characteristics of such objects. Consequently, human experience is regarded as a knowledge database that facilitates formulating optimal decisions. This is a characteristic that cannot be replaced by conventional robotic intelligent systems as the core component for controlling machine operations. A Kinect sensor was used to realize the objective of this study. The laser speckles generated through the infrared transmitter of the Kinect sensor were employed to obtain the 3-dimensional (3D) coordinates of a human operator, and the coordinate information was subsequently relayed to a computer to generate a 3D human body model and conduct skeletal tracking. Through a USB device, the vector positions (X-, Y-, and Z-axis values) of the skeleton are sent to a humanoid robot microcontroller unit, which drives a robot’s motor. A proportional, integral and derivative controller was used to stabilize the robot. When this method was applied, the robot mirrored the action of the operator and the movement of the robot was consistent with that of the human operator.
摘要 i
ABSTRACT ii
誌謝 iii
目錄 iv
表目錄 vi
圖目錄 vii
第一章 緒論 1
1.1 研究背景 1
1.2 研究目的 9
1.3 研究方法 9
1.4 論文架構 10
第二章 各類機器人運動模擬之研究 11
2.1 機器學習十大經典演算法 11
2.2 RoboCup模擬3D正式比賽環境模擬 13
2.2.1 系統設計 15
2.2.1.1 硬體架構規劃 15
2.2.1.2 VMWARE虛擬化架構規劃 16
2.2.1.3 軟體架構規劃 18
2.2.2 系統流程 22
2.3 NAO仿人型機器人之模擬 25
2.3.1系統設計 26
2.3.1.1 硬體架構規劃 26
2.3.1.2 軟體架構規劃 26
2.3.2 系統流程 27
2.4 Microsoft Robotics Developer Studio 4之模擬 27
2.4.1 系統設計 28
2.4.1.1 硬體架構規劃 28
2.4.1.2 軟體架構規劃 28
2.4.2 系統流程 32
第三章 仿人形機器人視覺學習系統設計 35
3.1 視覺學習系統設計 35
3.1.1 感測單元 35
3.1.2 運算單元 37
3.1.3 機器人控制單元 37
3.2 系統流程 41
第四章 視覺學習實驗與分析 42
4.1 伺服機穩定性分析 42
4.2 自由度(Degree of Freedom, DOF)分析 44
4.3 仿人型機器人基礎控制與模擬 45
4.4 視覺學習電腦模擬實做與分析 49
4.5 視覺學習機器人實做與分析 50
第五章 結論與未來展望 52
參考文獻 53
表1.1 Kinect性能規格 9
表2.1 筆電硬體規格表 16
表2.2 NAO球員Soccerserver參數表 19
表2.3 rcssmonitor3d指令表 20
表2.4 NAO機器人關節功能表 25
表2.5 LEGO NXT系統功能表 28
表3.1 RQ.HUNO規格表 39
圖1.1 Kinect for Windows架構圖 7
圖1.2 Kinect for Windows SDK架構圖 7
圖1.3 各階段機器人技術發展 8
圖2.1 最短切線法距離 14
圖2.2 VMWARE 虛擬機器示意圖 17
圖2.3 VMWARE 虛擬網路設定 17
圖2.4 VMWARE 新增虛擬機器方式 18
圖2.5 VMWARE RoboCup 3D足球比賽場景模擬環境 21
圖2.6 影像感知面向角度示意圖 21
圖2.7 SimSpark與Agent同步週期圖 22
圖2.8 CMUnited(CMU) 23
圖2.9 UvA Trilearn(UvA) 23
圖2.10 AllemaniACs(RWTH Aachen) 24
圖2.11 RoboCup 3D足球比賽隊伍模擬 24
圖2.12 NAO仿人型機器人機體示意圖 24
圖2.13 Choregraphe系統展示太極拳動作 27
圖2.14 Microsoft Robotics Developer Studio 4功能視窗 29
圖2.15 Microsoft Robotics Developer Studio 4 功能模组 31
圖2.16 LEGO NXT車輪型機器人模組圖 32
圖2.17 LEGO NXT車輪型機器人模擬場景 32
圖2.18 KUKA LBR3機器手臂模組圖 33
圖2.19 KUKA LBR3機器手臂模擬場景 33
圖2.20 Pioneer P3DX機器人模組圖 34
圖2.21 Pioneer P3DX機器人模擬場景 34
圖3.1 Microsoft Kinect垂直可視角度圖 36
圖3.2 Microsoft Kinect水平可視角度圖 36
圖3.3 Microsoft Kinect內部硬體架構圖 36
圖3.4 OpenNI 框架圖 37
圖3.5 ARM Cortex M3晶片內部電路圖 39
圖3.6 ARM Cortex M3晶片內部時脈電路 40
圖3.7 SAM.3 Servo內部電路圖 40
圖3.8 仿人行為機器人視覺學習系統流程圖 41
圖4.1 仿人行為機器人實體圖 42
圖4.2 伺服機微調之歸零定位 43
圖4.3 實測P控制 (比例控制)下伺服機響應圖 44
圖4.4 實測PD控制 (比例微分控制)下伺服機響應圖 44
圖4.5 機體自由度設計對應圖 45
圖4.6 PC開發介面 46
圖4.7 紅外線遙控器介面 46
圖4.8 Android手機介面 47
圖4.9 Android手機介面控制 47
圖4.10 Android手機介面控制-重力控制 48
圖4.11 跆拳道踢腳動作-右腳側踢 48
圖4.12 跆拳道踢腳動作-左腳側踢 49
圖4.13 電腦模擬肢體動作-舉右手 49
圖4.14 電腦模擬肢體動作-舉左手 49
圖4.15 電腦模擬肢體動作-雙手平衡 50
圖4.16 機器人視覺學習實驗示意圖 51
圖4.17 機器人視覺學習實驗 51
1. 微軟公司(microsoft) Kinect官方網站,https://www.microsoft.com/en-us/kinectforwindows/default.aspx
2. 艾瑞克‧布林優夫森(Erik Brynjolfsson),安德魯‧麥克費(Andrew McAfee),第二次機器時代:智慧科技如何改變人類的工作、經濟與未來?,台灣:天下文化,2014/07/30。
3. 國際機器人聯合會(IFR)提供一份工業機器人發展史,
http://www.ifr.org/index.php?id=59&;df=History_of_Industrial_Robots_online_brochure_by_IFR_2012.pdf
4. simspark官方網址,http://simspark.sourceforge.net/
5. Aldebaran Robotics公司官方網址,https://www.aldebaran.com/en
6. 微軟Microsoft Robotics Developer Studio 4官方下載網址,
https://www.microsoft.com/en-us/download/details.aspx?id=29081
7. 康仕仲,古凱元,紀宏霖,Microsoft Robotics Developer Studio 實戰手冊-智慧型機器人程式模擬與開發(平裝),臺灣:精誠資訊,2008。
8. P. Rouanet, P.-Y. Oudeyer, F. Danieau and D. Filliat, “The impact of human–robot interfaces on the learning of visual objects,” IEEE Transactions on Robotics, vol. 29, no. 2, pp.525-541, Apr. 2013.
9. openNI網址,http://structure.io/openni
10. OpenRTM-aist網址,http://www.openrtm.org/
11. RoboBuilder網址,http://rqworld.com/eng/
12. ARM Cortex M3 micro controller,
http://www.arm.com/zh/products/processors/cortex-m/cortex-m3.php
13. STMicroelectronics公司型號:STM32F100C8T6B,
http://www.st.com/web/en/catalog/mmc/FM141/SC1169/SS1031/LN775/PF216839?s_earchtype=keyword
14. SAM-3伺服機,http://robosavvy.com/store/robobuilder-sam-3-servo.html
15. STMicroelectronics型號:STM8S105,http://www.st.com/web/catalog/mmc/FM141/SC1244/SS1010/LN754/PF215106?s_searchtype=partnumber
16. wCK Programmer,http://rqworld.com/bbs_eng/board.php?bo_table=robo_data_eng
17. K. Suwanratchatamanee, M. Matsumoto and S. Hashimoto, “Haptic sensing foot system for humanoid robot and ground recognition with one-leg balance,” IEEE Transactions on Industrial Electronics, vol. 58, no. 8, pp.3174-3186, Aug. 2011.
18. RQ-HUNO 開發套件,
http://rqworld.com/bbs_eng/board.php?bo_table=robo_data_eng&;wr_id=61
19. F. Zeiger, M. Schmidt and K. Schilling, “Remote experiments with mobile-robot hardware via internet at limited link capacity,” IEEE Transactions on Industrial Electronics, vol. 56, no. 12, pp.4798-4805, Dec. 2009.
20. S. Kim, J.-Y. Sim and S. Yang, “Vision-based cleaning area control for cleaning robots,” IEEE Transactions on Consumer Electronics, vol. 58, no. 2, pp.685-690, May 2012.
21. H.-Y. Liu, W.-J. Wang, R.-J. Wang, C.-W. Tung, P.-J. Wang, and I.-P. Chang, “Image recognition and force measurement application in the humanoid robot imitation,” IEEE Transactions on Mechatronics and Measurement, vol. 61, no. 1, pp.149-161, Jan. 2012.
連結至畢業學校之論文網頁點我開啟連結
註: 此連結為研究生畢業學校所提供,不一定有電子全文可供下載,若連結有誤,請點選上方之〝勘誤回報〞功能,我們會盡快修正,謝謝!
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top