資料載入處理中...
跳到主要內容
臺灣博碩士論文加值系統
:::
網站導覽
|
首頁
|
關於本站
|
聯絡我們
|
國圖首頁
|
常見問題
|
操作說明
English
|
FB 專頁
|
Mobile
免費會員
登入
|
註冊
切換版面粉紅色
切換版面綠色
切換版面橘色
切換版面淡藍色
切換版面黃色
切換版面藍色
功能切換導覽列
(18.97.14.89) 您好!臺灣時間:2024/12/10 00:26
字體大小:
字級大小SCRIPT,如您的瀏覽器不支援,IE6請利用鍵盤按住ALT鍵 + V → X → (G)最大(L)較大(M)中(S)較小(A)小,來選擇適合您的文字大小,如為IE7或Firefoxy瀏覽器則可利用鍵盤 Ctrl + (+)放大 (-)縮小來改變字型大小。
字體大小變更功能,需開啟瀏覽器的JAVASCRIPT功能
:::
詳目顯示
recordfocus
第 1 筆 / 共 1 筆
/1
頁
論文基本資料
摘要
外文摘要
目次
參考文獻
紙本論文
論文連結
QR Code
本論文永久網址
:
複製永久網址
Twitter
研究生:
黃自誠
研究生(外文):
Huang, Tzu-Cheng
論文名稱:
具視覺慣性里程術的模型預測控制於無人履帶車之軌跡跟蹤
論文名稱(外文):
Trajectory Tracking of Unmanned Tracked Vehicle by Model Predictive Control with Visual-Inertial Odometry
指導教授:
陳顯禎
指導教授(外文):
Chen, Shean-Jen
口試委員:
李祖聖
、
莊智清
、
黃國勝
、
彭昭暐
口試委員(外文):
Li, Tzuu-Hseng
、
Juang, Jyh-Chin
、
Hwang, Kao-Shing
、
Peng, Chao-Wei
口試日期:
2020-07-08
學位類別:
碩士
校院名稱:
國立交通大學
系所名稱:
影像與生醫光電研究所
學門:
工程學門
學類:
生醫工程學類
論文種類:
學術論文
論文出版年:
2020
畢業學年度:
108
語文別:
中文
論文頁數:
47
中文關鍵詞:
無人履帶車
、
視覺慣性里程術
、
感測器融合
、
瞬時旋轉中心
、
滑差參數
、
軌跡跟蹤
、
模型預測控制
外文關鍵詞:
unmanned tracked vehicle
、
visual inertial odometry
、
sensor fusion
、
Instantaneous center of rotation
、
slip parameter
、
trajectory Tracking
、
model predictive control
相關次數:
被引用:0
點閱:455
評分:
下載:0
書目收藏:0
近幾年將無人地面載具(unmanned ground vehicle,UGV)應用場域非常多樣,本論文主要為將UGV應用於農地上並進行公分等級的精準軌跡追蹤,以利此UGV可做為後續雷射除蟲或疏花的載具。為了易於適應農地瞬間變化與車體操控性需求,我們採用滑移轉向(skid-steer)電動履帶車(tracked vehicle),並藉由機器人作業系統(robot operating system,ROS)將所有機電與無人控制整合載一起。首先建立其運動學模型(kinematic model),並進一步藉由Intel D435i深度相機之視覺慣性里程術(visual-inertial odometry,VIO)協助的瞬時旋轉中心(instantaneous centers of rotation,ICR)方式來即時求出滑差參數(sliding parameter),從而降低打滑對履帶車速度(含線速度與角速度)控制的影響。經實驗結果證明,此履帶車在不同的地面其速度控制誤差可降至到10%以內。於未知環境中進行軌跡跟蹤(trajectory tracking),我們透過同步定位與地圖構建(simultaneous localization and mapping,SLAM)之RTAB-Map (Real-Time Appearance-Based Mapping)方式來進行。這裡亦以上述Intel D435i深度相機來提供視覺里程(visual odometry,VO)資訊,而非光達(light detection and ranging,LiDAR),主要考量Intel D435i元件成本較低以及在農田特徵參考點較少,另為了適應農地中非剛體、非亮暗不變、非靜態的環境,亦加入Intel D435i內含的陀螺儀提供的慣性測量單元(inertial measurement unit,IMU),並藉由擴展卡爾曼濾波器(extended Kalman filter,EKF)進行感測器融合(sensor fusion)來提供VIO資訊,從而使動態定位誤差低於5%以內,並且提升定位的強健性。最後透過模型預測控制(model predictive control,MPC)方式來進行Matlab模擬預測與實地實驗,來達到於複雜農地環境上之精準軌跡跟蹤。
In recent years, the fields for application of unmanned ground vehicle (UGV) has been very diverse. This paper is mainly to apply UGV to agricultural land and carry out accurate trajectory tracking at the centimeter level. In the future, it will be combined with lasers for pest control and fruit thinning. In order to adapt to the changeable agricultural land, we use a skid-steer tracked vehicle, and all hardware and programs are integrated through robot operating system (ROS). First, we establish its kinematic model, and then use the position information provided by visual-inertial odometry (VIO) to calculate instantaneous centers of rotation (ICR) and sliding parameters in real time so as to reduce the influence of skid on the speed control of tracked vehicles. The experimental results prove that the deviation of speed control on different grounds can be reduced to less than 10%. For trajectory tracking in an unknown environment, we choose RTAB-Map (Real-Time Appearance-Based Mapping) as our simultaneous localization and mapping (SLAM) algorithm. Here, Intel D435i depth camera is also used to provide visual odometry (VO) information instead of light detection and ranging (LiDAR). It is more economic by using Intel D435i depth camera and there will be fewer feature points in agricultural land. In order to adapt to the non-rigid body, non-fixed brightness, and unstable environment in agricultural land, we use the inertial measurement unit (IMU) provided by Intel d435i and extended Kalman filter (EKF) for sensor fusion to improve positioning accuracy. The results show that the deviation of dynamic positioning is less than 5%, and the robustness of positioning is improved. Finally, we use model predictive control (MPC) for trajectory tracking, and use Matlab for simulation and experiments to achieve accurate trajectory tracking in complex agricultural land environments.
摘要 I
ABSTRACT III
致謝 IV
目錄 VI
圖目錄 VIII
表目錄 IX
第一章 序論 1
1-1前言 1
1-2研究動機與方法 1
1-3論文架構 3
第二章 履帶車的機電系統與運動學模型 4
2-1 機電系統 4
2-2 履帶車運動學模型 5
2-3 瞬時旋轉中心與滑動參數計算 7
第三章 即時定位與地圖構建 11
3-1 即時定位與地圖構建 11
3-1-1 特徵點擷取 12
3-1-2 建圖 15
3-1-3 迴環檢測 16
3-2 視覺慣性里程計 17
3-1-1 卡爾曼濾波器 18
3-1-2 擴展卡爾曼濾波器 20
第四章 模型預測控制 22
4-1 模型預測控制 22
4-1-1 預測模型 23
4-1-2 滾動優化 24
4-1-3 反饋校正 25
4-2 非線性模型預測控制 25
4-3 適應性模型預測控制 26
第五章 實驗討論與結果 27
5-1 視覺慣性里程計定位精度 27
5-2 滑動參數與瞬時旋轉中心 29
5-3 純跟蹤控制進行軌跡追蹤 39
5-4 模型預測控制進行軌跡追蹤 40
第六章 結論與未來工作 43
參考文獻 45
[1] M. Labbe and F. Michaud, “RTAB‐Map as an open‐source lidar and visual simultaneous localization and mapping library for large‐scale and long‐term online operation” Journal of Field Robotics 36 (2019) 416–446.
[2] Mathieu Labb´ et al., “Appearance-based loop closure detection for online large-scale and long-term operation,” IEEE Transactions on Robotics 29 (2013) 734–745.
[3] J. Shi “Good features to track,” Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (1994) 593–600.
[4] M. Calonder et al., “BRIEF: binary robust independent elementary features,” Computer Vision – ECCV (2010) 778–792.
國圖紙本論文
連結至畢業學校之論文網頁
點我開啟連結
註: 此連結為研究生畢業學校所提供,不一定有電子全文可供下載,若連結有誤,請點選上方之〝勘誤回報〞功能,我們會盡快修正,謝謝!
推文
當script無法執行時可按︰
推文
網路書籤
當script無法執行時可按︰
網路書籤
推薦
當script無法執行時可按︰
推薦
評分
當script無法執行時可按︰
評分
引用網址
當script無法執行時可按︰
引用網址
轉寄
當script無法執行時可按︰
轉寄
top
相關論文
相關期刊
熱門點閱論文
1.
無人萬向搬運車搭配六軸工業手臂系統開發整合與基於四輪輪轂馬達驅動之運動控制
2.
自動防撞系統之時變軌跡規劃與追蹤控制
3.
具磁力計自我校正功能之磁性輔助視覺慣性測程器
無相關期刊
1.
以3D CNN提升多光子時域聚焦顯微活體果蠅腦影像
2.
補償超快雷射頻譜相位之適應性光學系統
3.
藉由超聲透鏡掃描與深度學習來提升多光子顯微術之成像速度與品質
4.
藉由多光子微製造技術於Shack-Hartmann波前感測器微型化製作
5.
向量掃描和三維灌漿應用於多光子激發微製程
6.
小鼠腦的多光子影像深度極限之研究
7.
以LCoS空間光調變器搭配Shack-Hartmann波前感測器之雷射光束整型系統
8.
藉由仿真數據資料庫為基礎的U-Net來復原活體多光子生物影像
9.
利用超快雷射於鎳碳混合膜上直寫出石墨烯光學元件
10.
藉由多光子微製造技術來製作邊射型雷射二極體之光導引準直器
11.
基於模型預測控制之田間履帶機器人路徑跟隨與軌跡跟蹤
12.
深度確定性策略梯度於田間履帶機器人之追跡及避障
13.
超聲透鏡與共振組合之快速體積多光子成像
14.
深度學習之3D電腦全像於多光子激發
15.
藉由3D生成對抗網路重建雙光子快速體積顯微活體果蠅腦影像
簡易查詢
|
進階查詢
|
熱門排行
|
我的研究室