(3.92.96.236) 您好!臺灣時間:2021/05/06 23:26
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果

詳目顯示:::

我願授權國圖
: 
twitterline
研究生:施養孝
研究生(外文):Yang-Hsiao Shih
論文名稱:用於分析都市交通之自動化道路模型建置技術
論文名稱(外文):Automatic Road Modeling for Urban Traffic Analysis
指導教授:蘇志文蘇志文引用關係
指導教授(外文):CHIH-WEN SU
學位類別:碩士
校院名稱:中原大學
系所名稱:資訊工程研究所
學門:工程學門
學類:電資工程學類
論文種類:學術論文
論文出版年:2017
畢業學年度:105
語文別:中文
論文頁數:53
中文關鍵詞:道路模型車流分析車道建構都市環境
外文關鍵詞:Road ModelFlow AnalysisLane BoundaryUrban Environment
相關次數:
  • 被引用被引用:2
  • 點閱點閱:56
  • 評分評分:系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:0
在本篇論文中,我們提出了一個能夠適應不同都市環境下的道路監控攝影機,自動化構築道路區域、進行車流分析與車道的建構來為不同攝影機場景建構道路模型的方法。在智慧型運輸系統中,都市環境下的交通分析一直是這塊研究領域中的重要議題,而相較於較為少見的感應式感測器,利用早已大量存在於都市各道路上的道路監控攝影機影像來進行交通分析,是相對有效率且實際的方法。在本論文中,我們利用找出影片中車輛流向改變的時機,將影片分割成含有單純交通流向較小片段,並利用統計學的方法,累積統計片段的前景與流向,之後再將相似流向片段進行整併,得到符合影片的主要道路區域與流向分布,最後利用結果擬合出車道的邊界,得到可用於之後交通分析的道路模型。實驗結果顯示出不論在單純(例如高架橋)或是複雜(例如十字路口)的都市環境下,我們所提出的方法都能夠建構出符合該攝影機情況的可靠道路模型。
In this study, we propose a method to construct road model which contains road area, traffic flow, and lane boundary automatically. The road model adapt to different scenes of individual cameras in urban environment. The analysis of urban environment is always one of the most important issue in Intelligent Transportation Systems (ITS). It is more practical and efficient to use surveillance cameras on the road rather than traffic sensors as our video sources. In this study, we split a video into segments which contain only simple traffic flows by finding when the traffic flows change. We also perform statistics of foreground and flow orientation on every segment, and merge similar segments to acquire primary foreground and flow distribution of a video. Next we fit lane boundaries by previous results. By combining primary foreground distribution, primary flow distribution, and lane boundary, we get a robust road model for further traffic analysis. The experimental results shows that our road model can describe not only simple (e.g. viaduct) but also complex (e.g. crossroads) scenes well.
目錄
摘要 I
Abstract II
誌謝 III
目錄 IV
圖目錄 V
第一章 緒論 1
1.1 研究動機 1
1.2 研究目的 2
1.3 論文架構 3
第二章 相關文獻 4
第三章 研究方法 14
3.1 影片片段分割 15
3.2 片段道路區域與流向統計 21
3.3 片段結果合併 24
3.4 車道建構 26
第四章 實驗結果與分析 30
4.1 實驗環境與測試資料 30
4.2 影片片段分割結果 31
4.3 道路區域統計結果 31
4.4 交通流向統計結果 35
4.5 車道建構結果 39
4.6 實驗討論 42
第五章 結論與未來研究方向 44
參考文獻 45

圖目錄
圖1-1 不同監控攝影機所拍攝的道路情況 2
圖2-1 感應式感測器 5
圖2-2 CCTV(Closed-Circuit Television) 5
圖2-3 感應式感測器與道路監控攝影機的優缺點分析 5
圖2-4 Xin等人的車輛軌跡分類流程示意圖[1] 6
圖2-5 Xin等人的車輛軌跡分類結果[1] 7
圖2-6 Song等人的activities分類結果[2] 7
圖2-7 Song等人的traffic states分類結果[2] 8
圖2-8 Lee等人的車流區域[5] 9
圖2-9 Brulin等人經由光流法建構出的車輛流向[7] 9
圖2-10 Pan等人的車道建構方法[8] 11
圖2-11 Canny邊緣檢測與Hough Transform線段偵測 12
圖2-12 CHEVP演算法[12] 12
圖3-1 系統流程圖 14
圖3-2 不同的道路環境圖 15
圖3-3 複雜流向影片中所包含的多個單一流向分布 16
圖3-4 影片分割示意圖 17
圖3-5 背景相減法示意圖 17
圖3-6 前景偵測方法比較 18
圖3-7 GMM示意圖 18
圖3-8 GMM執行結果 19
圖3-9 Farneback Dense Optical Flow結果示意圖 20
圖3-10 光流法比較圖 20
圖3-11 利用形態學進行前處理 22
圖3-12 道路區域前景點的統計結果圖 22
圖3-13 影像上一個像素點所包含的直方圖資訊示意圖 23
圖3-14 片段流向的統計結果圖 24
圖3-15 兩個片段結果的合併示意圖 25
圖3-16 所有片段合併後的結果 26
圖3-17 車道建構流程圖 26
圖3-18 車道線之參考輪廓點 27
圖3-19 利用RANSAC做線性擬合之示意圖 28
圖3-20 車道的邊界 29
圖4-1 台北交通控制中心網站 30
圖4-2 民族西路環河北路道路影片片段分割結果 31
圖4-3 單純流向道路區域統計結果 32
圖4-4 民族西路環河北路道路區域統計結果 33
圖4-5 承德中正道路區域統計結果 33
圖4-6 信義計畫區信義基隆道路區域統計結果 34
圖4-7 民權東路松江路口道路區域統計結果 34
圖4-8 延平北路通河西街道路區域統計結果 35
圖4-9 單一流向交通流向統計結果 36
圖4-10 民族西路環河北路交通流向統計結果 36
圖4-11 承德中正交通流向統計結果 37
圖4-12 信義計畫區信義基隆交通流向統計結果 37
圖4-13 民權東路松江路口交通流向統計結果 38
圖4-14 延平北路通河西街交通流向統計結果 38
圖4-15 民族西路環河北路車道建構結果 39
圖4-16 承德中正車道建構結果 40
圖4-17 信義計畫區信義基隆車道建構結果 40
圖4-18 民權東路松江路口車道建構結果 41
圖4-19 延平北路通河西街車道建構結果 41
圖4-20 無交通號誌(無規律車流變化)影片 42
圖4-21 下方車流因高度而遮蔽到上方車流 43
圖4-22 瞬移片段中的三張連續畫面 43
[1]L. Xin, D. Yang, Y. Chen and Z. Li, “Traffic Flow Characteristic Analysis at Intersections from Multi-layer Spectral Clustering of Motion Patterns using Raw Vehicle Trajectory,” Intelligent Transportation Systems (ITSC), pp. 513-519, 2011.
[2]L. Song, F. Jiang, Z. Shi, R. Molina and A. K. Katsaggelos, “Toward Dynamic Scene Understanding by Hierarchical Motion Pattern Mining,” IEEE Trans. Intell. Transp. Syst., vol. 15, no. 3, June 2014.
[3]B. Lucas, and T. Kanade, “An Iterative Image Registration Technique with an Application to Stereo Vision,” Proc. of 7th International Joint Conference on Artificial Intelligence (IJCAI), pp. 674-679, 1981.
[4]G. Farneback, “Two-Frame Motion Estimation Based on Polynomial Expansion,” Proc. of 13th Scandinavian conference on Image analysis, pp. 363-370, 2003.
[5]J. Lee and A. C. Bovik, “Estimation and Analysis of Urban Traffic Flow,” IEEE International Conference on Image Processing(ICIP), pp. 1157-1160, 2009.
[6]M. J. Black and P. Anandan, “The robust estimation of multiple motions: parametric and piecewise-smooth flow fields,” Computer Vision and Image Understanding, vol. 63, no. 1, pp. 75-104, January 1996.
[7]M. Brulin, H. Nicolas and C. Maillet, “Video Surveillance Traffic Analysis using Scene Geometry,” Image and Video Technology (PSIVT), pp. 450-455, 2010.
[8]X. Pan, Y. Guo and A. Men, “Traffic Surveillance System for Vehicle Flow Detection,” Computer Modeling and Simulation, ICCMS ''10, pp. 314-318, 2010.
[9]J. Canny, “A Computational Approach To Edge Detection,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 8, no. 6, 1986.
[10]R. O. Duda and R. E. Hart. “Use of the Hough Transform to Detect Lines and Curves in Pictures”, CACM, vol. 15, no. 1, pp. 11-15, Jan. 1972.
[11]M. Brulin and H. Nicolas, “Scene Model for Video Traffic Analysis,” Advanced Video and Signal Based Surveillance (AVSS), pp. 301-306, 2014.
[12]Y. Wang, E. K. Teoh and D. Shen, “Lane detection and tracking using B-Snake,” Image and Vision computing, vol. 22, no. 4, 2004.
[13]Z. Zivkovic, “Improved adaptive Gaussian mixture model for background subtraction,” Pattern Recognition (ICPR), pp. 28-31, 2004.
[14]D. Lowe, “Object recognition from local scale-invariant features,” in Proc. Int. Conf. Comput. Vis., pp. 1150-1157, 1999.
[15]H. Bay, A. Ess, T. Tuytelaars, and L. Van Gool, “Speeded-Up Robust Features (SURF), ” Comput. Vis. Image Understand., Jun. 2008.
[16]N. Dalal and B. Triggs, “Histograms of oriented gradients for human detection,” CVPR, 2005.
[17]P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” in Proc. IEEE Comput. Vis. Pattern Recog. Conf., pp. 511-518, 2001.
[18]M. S. Arulampalam, S. Maskell, N. Gordon, and T. Clapp. “A tutorial on particle filters for online nonlinear/non-gaussian bayesian tracking,” IEEE Transactions on Signal Processing, vol. 50, no. 2, pp. 174-188, 2002.
[19]Q. Yuan, A. Thangali, V. Ablavsky, and S. Sclaroff, “Learning a family of detectors via multiplicative kernels,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 3, pp. 514–530, Mar. 2011.
[20]S. Sivaraman and M. M. Trivedi, “A general active-learning framework for on-road vehicle recognition and tracking,” IEEE Transactions on Intelligent Transportation Systems, vol. 11, no. 2, pp. 267–276, Jun. 2010.
[21]M. A. Fischler and R. C. Bolles. “Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography,” Comm. of the ACM, vol. 24, no. 6, 1981.
[22]Taipei City ATIS Web. Available: http://its.taipei.gov.tw
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
系統版面圖檔 系統版面圖檔