跳到主要內容

臺灣博碩士論文加值系統

(18.204.48.64) 您好!臺灣時間:2021/08/01 08:55
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

我願授權國圖
: 
twitterline
研究生:許培芸
研究生(外文):Pei-Yun Hsu
論文名稱:利用感測器資料分析運動狀態進行第一人稱影片即時事件偵測
論文名稱(外文):Real-Time Instant Event Detection in Egocentric Videos by Leveraging Sensor-Based Motion Context
指導教授:徐宏民
口試委員:陳祝嵩葉梅珍余能豪
口試日期:2015-07-12
學位類別:碩士
校院名稱:國立臺灣大學
系所名稱:資訊工程學研究所
學門:工程學門
學類:電資工程學類
論文種類:學術論文
論文出版年:2015
畢業學年度:103
語文別:英文
論文頁數:14
中文關鍵詞:第一人稱視角影片感測器穿戴式裝置事件偵測
外文關鍵詞:Egocentric VideoSensorWearable DeviceEvent Detection
相關次數:
  • 被引用被引用:1
  • 點閱點閱:113
  • 評分評分:
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:0
現今穿戴式裝置的普及產生了大量的第一人稱視角影片,因此偵測這些影片中的事件的需求也越來越多。與傳統的方法不同的地方在於穿戴式裝置(例如 Google Glass)有其計算能力與電量的限制,因此我們希望能著重在即時性的事件偵測,並且在事件發生同時才開始錄影。而傳統方法大多是必須先將所有影片錄下來,並且分析影像內容來達到目的,此方法非常耗時,因此不適用於穿戴式裝置。另一方面,由於穿戴式裝置多配有感測器,因此我們提出了一個利用感測器來判斷使用者的運動狀態,並依此偵測事件發生點的方法。首先是分析穿戴式裝置上的各種感測器的資料來當做特徵值,接著依此特徵值利用一個階層式的模型預測使用者目前的運動狀態,再依據此運動狀態選擇相對應的事件重要性預測模型,對每一個時間點給一個重要性分數,分數越高表示越有可能是重要事件發生的時間點,有了這個分數,我們便可以只在偵測到高分的時間點開始錄影(小短片),藉此達到省電省儲存空間的效果。除此之外,我們還收集了一個第一人稱日常生活影片資料集,包含由多個不同使用者以Google Glass錄製的第一人稱影片以及眼鏡上的感測器資料,而我們用此資料集來評估上述方法的表現,實驗結果顯示我們的方法比其他的方法好。

With rapid growth of egocentric videos from wearable devices, the need for instant video event detection is emerging. Different from conventional video event detection, it requires more considerations on a real-time event detection and immediate video recording due to the computational cost on wearable devices (e.g., Google Glass). Conventional work of video event detection analyzed video content in an offline process and it is time-consuming for visual analysis. Observing that wearable devices are usually along with sensors, we propose a novel approach for instant event detection in egocentric videos by leveraging sensor-based motion context. We compute statistics of sensor data as features. Next, we predict the user''s current motion context by a hierarchical model, and then choose the corresponding ranking model to rate the importance score of the timestamp. With importance score provided in real-time, camera on the wearable device can dynamically record micro-videos without wasting power and storage. In addition, we collected a challenging daily-life dataset called EDS (Egocentric Daily-life Videos with Sensor Data), which contains both egocentric videos and sensor data recorded by Google Glass of different subjects. We evaluate the performance of our system on the EDS dataset, and the result shows that our method outperforms other baselines.

Contents
誌謝ii
Acknowledgements iii
摘要iv
Abstract v
1 Introduction 1
2 Technical Details 4
2.1 System Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Sensor Features . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Motion Context Classification . . . . . . . . . . . . . . . . . . . . . . . 5
2.4 Importance Rating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3 Experiment Results 8
3.1 Dataset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2.1 Motion Context Classification . . . . . . . . . . . . . . . . . . . 9
3.2.2 Importance Rating . . . . . . . . . . . . . . . . . . . . . . . . . 10
4 Conclusion 12
Bibliography 12

Bibliography
[1] C.-C. Chang and C.-J. Lin. Libsvm: a library for support vector machines. ACM
Transactions on Intelligent Systems and Technology (TIST).
[2] M. Gygli, H. Grabner, H. Riemenschneider, and L. Van Gool. Creating summaries
from user videos. In ECCV 2014.
[3] Y. J. Lee, J. Ghosh, and K. Grauman. Discovering important people and objects for
egocentric video summarization. In CVPR 2012.
[4] Z. Lu and K. Grauman. Story-driven summarization for egocentric video. In CVPR
2013.
[5] Y. Poleg, C. Arora, and S. Peleg. Temporal segmentation of egocentric videos. In
CVPR 2014.
[6] X. Wang, Y.-G. Jiang, Z. Chai, Z. Gu, X. Du, and D. Wang. Real-time summarization
of user-generated videos based on semantic recognition. In Proceedings of the
ACM International Conference on Multimedia, 2014.
[7] J. Windau and L. Itti. Situation awareness via sensor-equipped eyeglasses. In Intelligent
Robots and Systems (IROS), 2013.
[8] B. Xiong and K. Grauman. Detecting snap points in egocentric video with a web
photo prior. In ECCV 2014.
[9] J. Xu and H. Li. Adarank: a boosting algorithm for information retrieval. In SIGIR
2007.
[10] B. Zhao and E. P. Xing. Quasi real-time summarization for consumer videos. In
CVPR 2014.

QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top