(3.235.108.188) 您好!臺灣時間:2021/02/26 18:41
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果

詳目顯示:::

我願授權國圖
: 
twitterline
研究生:何佳哲
研究生(外文):Chia-Che Ho
論文名稱:基於循環式景深區域切割之全聚焦影像合成及深度圖估測技術
論文名稱(外文):An All-focus Image Fusion and Depth Image based on Iteratively Splitting Depth of Field Region
指導教授:賴文能賴文能引用關係
指導教授(外文):Wen-Nung Lie
口試委員:葉家宏賴文能陳佳妍黃敬群
口試委員(外文):Chia-Hung YehWen-Nung LieChia-Yen CHENChing-Chun Huang
口試日期:2014-09-26
學位類別:碩士
校院名稱:國立中正大學
系所名稱:電機工程研究所
學門:工程學門
學類:電資工程學類
論文種類:學術論文
論文出版年:2014
畢業學年度:103
語文別:中文
論文頁數:83
中文關鍵詞:全聚焦影像全聚焦影像合成
外文關鍵詞:all focusall in focusmulti focusmulti focus fusion
相關次數:
  • 被引用被引用:0
  • 點閱點閱:194
  • 評分評分:系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔
  • 下載下載:15
  • 收藏至我的研究室書目清單書目收藏:0
隨著時代的進步,近年來許多科技大都朝向3D工程發展,其技術應用範圍很廣泛。3D工程用來偵測並分析現實世界中物體或環境的形狀(幾何構造)與外觀資料(如顏色、表面反射率等性質),例如,平面感測器蒐集到的資料常被用來進行三維重建計算,在虛擬世界中建立實際物體的3D數位模型。這些3D模型具有相當廣泛的用途,例如工業設計、瑕疵檢測、逆向工程、機器人導引、地貌測量、醫學資訊、生物資訊、刑事鑑定、數位文物典藏、電影製片、遊戲創作素材等等都可見其應用。
本論文探討以單眼相機拍攝不同焦距的影像序列,對所觀察的影像序列中物體重建其全聚焦合成影像,並計算相對的畫面深度資訊。本論文提出一演算法,其中前處理先估測影像場景中粗略的景深區域切割,後續再利用循環式區域切割法將優化景深區域的切割結果,最後再以聚焦度量及winner take all方法選擇正確的對焦影像資訊來合成全聚焦及深度圖影像,而對於無法辨識景深的區域,利用其相鄰區域的深度資訊,來指定適當的深度值,後處理則係偵測深度圖中的脈衝雜訊,並利用其相鄰區域的深度資訊做修正。
實驗結果顯示,本論文的全聚焦合成影像結果相對於其他學術文獻及商業軟體,以人眼評估較不易察覺明顯失真,觀看時可以明確地感受到影像的對焦感,而對於深度影像結果,我們的方法在前景及背景也有不錯的辨別效果。此外,在計算時間上,我們的方法也優於所比較的商業軟體。

致謝 I
摘要 II
目錄 III
圖目錄 V
表目錄 VIII
第一章 簡介 1
1.1 研究背景與動機 1
1.2 VISION-BASED 3D掃描技術現況 4
1.3 聚焦測距演算法(DEPTH FROM FOCUS, DFF) 5
1.4 本論文所採用方法 6
第二章 DFF/DFD技術與全聚焦影像合成 9
2.1 DFF之光學成像幾何模型 9
2.2 DFD技術簡介 11
2.3 聚焦度量 (FOCUS MEASURE) 12
2.4 DFF文獻總攬 15
第三章 循環式景深區域切割演算法 19
3.1 前處理 20
3.1.1 不同焦距像素之融合權重計算 21
3.1.2 初始全聚焦影像合成與影像色塊區域切割 22
3.2 循環式景深區域切割 22
3.2.1 區域聚焦評價曲線分析 22
3.2.2 色塊區域聚焦曲線分類 26
3.2.3 x區域之深度估測 33
3.3 深度圖後處理 36
第四章 實驗結果與分析 39
4.1 輸入影像組態 39
4.2 前處理結果 40
4.3 循環式景深區域切割 49
4.4 與其他文獻之合成品質與計算時間比較 60
4.4.1 合成影像品質度量法 60
4.4.2 實驗比較結果 62
第五章 結論與未來工作 81
5.1 結論 81
5.2 未來工作 81
文獻參考 83

[1]曾至安,”基於 3D 人臉模型之影像式動態表情合成”,國立中正大學電機所碩士論文,2009 年 7 月。
[2]北京四維灝景科技有限公司,http://big5.made-in-china.com/gongying/siweihaojing-abgQhOmdaVrT.html。
[3]E. Wong, “A New Method for Creating a Depth Map for Camera Auto Focus Using an All in Focus Picture and 2D Scale Space Matching,” Proc. Of Int’l Conf. Acoustics, Speech and Signal Processing (ICASSP), May 2006.
[4]http://zh.wikipedia.org/zh-tw/%E4%B8%89%E7%BB%B4%E6%89%93%E5%8D%B0%E6%9C%BA。
[5]Huei-Yung Lin and Kai-Da Gu, “Depth Recovery Using Defocus Blur at Infinity,” Proc. Of Int’l Conf. on Pattern Recognition, ICPR, 2008.
[6]H. Y. Lin and X. H. Chou, "Defocus Blur Parameters Identification by Histogram Matching," Journal of the Optical Society of America A, Vol. 29, No. 8, pp. 1694-1706, Aug. 2012.
[7]Cheng-Yu Tsai, “Profilometry Using Depth from Defocus” Master thesis of National Chung Hsing University, 2010.
[8]鄭芳炫,毛新惟, “快速影像式自動對焦技術研究”, Journal of Information Technology and Applications, Vol. 3, No. 1, pp. 67-76, 2008.
[9]Yi-Che Chen, Yi-Chin Wu, Chih-Hung Liu, Wei-Chih Sun, Yung-Chang Chen, “Depth Map Generation Based on Depth From Focus,” Proc. IEEE Conf. Electronic Devices, Systems and Applications (ICEDSA), pp. 59-63, April 2010.
[10]A. Yokota, T. Yoshida, H. Kashiyama, T. Hamamoto, “High speed Sensing System for Depth Estimation Based on Depth from Focus by Using Smart Imager,” Proc. IEEE ISCAS, Vol. 1, pp. 564-567, May 2005.
[11]E. Wong, “A New Method for Creating a Depth Map for Camera Auto Focus Using an All in Focus Picture and 2D Scale Space Matching,” Proc. of IEEE ICASSP, May 2006.
[12]J.C. Pedraza, K. Ohba, J.W. Rodriguez, K. Tanie, “All in Focus Camera Vision System for Robot Navigation and Manipulation based on the DFF criteria,” Proc. Of IEEE Conf. on Intelligent Robots and Systems, Vol. 2, pp. 758-763, 2001.
[13]T. H. Wang and C. T. Chiu, “Low visual difference virtual high dynamic range image synthesizer from a single legacy image,” Proc. IEEE Int’l Conf. on Image Processing, pp. 22652268, 2011.
[14]Qingping Li , Junping Du , Fuzhao Song , Chao Wang , Honggang Liu , Cheng Lu, “Region-based multi-focus image fusion using the local spatial frequency,” Control and Decision Conference (CCDC), 2013.
[15]Rui Shen Cheng, I. Jianbo Shi, A. Basu, “Generalized Random Walks for Fusion of Multi-Exposure Images,” Proc. IEEE Int’l Conf. on Image Processing, 2011.
[16]Yi-Chong Zeng, “Generation of all-focus images and depth-adjustable images based on pixel blurriness,” Proc. Of Annual Summit and Conference of Asia-Pacific Signal and Information Processing Association (APSIPA), 2013.
[17]M.B.A. Haghighat, A. Aghagolzadeh, and H. Seyedarabi, “Multi-focus image fusion for visual sensor networks in DCT domain,” Computers and Electrical Engineering, vol.37, no.5, pp.789-797, Sept. 2011.
[18]Haozheng Ren,Yihua Lan, Yong Zhang, “Research of multi-focus image fusion based on M-band multi-wavelet transformation,” Proc. Of Int’l Advanced Computational Intelligence (IWACI), 2011.
[19]M.V. Sudhamani, C.R. Venugopal, “Segmentation of Color Images using Mean Shift Algorithm for Feature Extraction,” Proc. IEEE Int’l Conf. on Information Technology (ICIT '06. 9th), 2006.
[20]D. Comaniciu, P. Meer, “Mean shift: a robust approach toward feature space analysis,” IEEE Trans. on Pattern Analysis and Machine Intelligence, 2002.
[21]王勇,潭毅華,田金文,“一種新的圖像清晰度評價函數”,華中科技大學人工智能與模式任別研究所, 2007。
[22]申勤,“數字圖像清晰度評價函數的研究與改進”,四川大學錦江學萬機械工程系所,2010。
[23]C.S.Xydeas, V. Petrovic,“Objective image fusion performance measure” Electronics Letters,vol.36,no.4, pp.308-309, Feb. 2000.

QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
系統版面圖檔 系統版面圖檔