(100.26.179.251) 您好!臺灣時間:2021/04/12 21:31
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果

詳目顯示:::

我願授權國圖
: 
twitterline
研究生:朱昱融
研究生(外文):CHU,YU-JUNG
論文名稱:體感互動內容創作系統之開發與評估
論文名稱(外文):Development and Evaluation of A Full-Body Interactive Content Authoring System
指導教授:林信志林信志引用關係
指導教授(外文):LIN,HSIN-CHIH
口試委員:孫惠民李建億林信志
口試日期:2016-06-29
學位類別:碩士
校院名稱:國立臺南大學
系所名稱:數位學習科技學系碩博士班
學門:教育學門
學類:教育科技學類
論文種類:學術論文
論文出版年:2016
畢業學年度:104
語文別:中文
論文頁數:81
中文關鍵詞:全身肢體動作互動內容創作系統動作辨識體感擴增實境自然互動
外文關鍵詞:full-body interactioninteractive content authoring systemaction recognitionmotion-based augmented realitynatural interaction
相關次數:
  • 被引用被引用:0
  • 點閱點閱:85
  • 評分評分:系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:1
本研究提出一套體感互動內容創作系統 (Authoring System),運用體感偵測技術結合體感圖像創作,透過 Kinect 擷取人體骨架關節點的三維座標來錄製全身肢體動作,並以擴展標記語言 (Extensible Markup Language, XML) 將使用者喜好的動作儲存至資料庫。本系統根據使用者事先儲存好的肢體動作數據庫來比對現場的肢體動作,使用者不必撰寫動作判斷程式,只要利用圖像動作配對表,即可針對自行設定的動作搭配指定的創作圖像,發展出各種搭配組合;使用者於簡報時,可以輕鬆利用自行設定好的動作,呼叫自行創作的圖像並呈現於畫面中,提升簡報的互動趣味性!
為評估體感互動內容創作系統,本研究先邀請專家進行原型評估,針對專家所惠賜的寶貴意見予以修改後,開始進行系統體驗測試實驗,再以量表問卷蒐集使用者實證資料並進行統計分析,量表包含:系統使用性量表 (System Usability Scale, SUS)、使用者互動滿意度量表 (Questionnaire for User Interaction Satisfaction, QUIS)、體感互動體驗量表等。研究結果顯示:本系統使用性尚佳;本系統的整體反應良好,動作辨識精準,但語音辨識的部分稍嫌不易;本系統的動作圖像配對表可使簡報過程充滿趣味和增加互動性;本系統讓使用者擁有良好的體感互動體驗。

In this study, a full-body interactive content authoring system has been developed and evaluated. We integrated motion-sensing technology and gesture-based image creation to record users’ full-body motion and save the motion into the database using XML (extensible markup language) automatically. The Kinect device is used to capture the three dimensional coordinates of human skeletons. The proposed system can easily detect users’ full-body motions by comparing the motions stored in the database. After that, the motion-image matching table allowed users to create a variety of combinations of customized actions with assigned images. Through the motion-image matching table, this study enhances the interactive experience of presentation.
We invited three experts to assess the prototype and then used their reflections to revise the prototype. After that, our system was tested with users through three questionnaires to collect and analyze the data, including System Usability Scale (SUS), Questionnaire for User Interaction Satisfaction (QUIS), and the scale of Motion-Sensing Interactive Experience. The results indicated that the usability of the proposed system is good for users to understand and operate; the system response is stable and the motion capture can be recognized accurately, but the voice is difficult to be recognized; using the motion-image matching table, the proposed system can make the presentation more interesting and interactive; and the system provides users with a good interactive experiences.
摘要 i
ABSTRACT ii
目 次 iii
表 次 v
圖 次 vi
第一章 緒論 1
第一節 研究背景與動機 1
第二節 研究目的 3
第三節 研究問題 4
第四節 研究範圍與限制 5
第五節 論文組織 5
第二章 文獻探討 6
第一節 體感介紹和應用 6
第二節 體感動作辨識 9
第三節 體感擴增實境應用 13
第四節 人機互動介面與設計 15
一、自然使用者介面 15
二、介面設計原則 16
第五節 創作編輯系統 17
第六節 文獻總結 19
第三章 系統開發 21
第一節 系統架構與流程 21
第二節 系統介面設計與提示 24
第三節 肢體動作辨識 28
第四節 影像創作模組 29
第五節 動作編輯模組 32
第六節 自然互動模組 36
第四章 研究方法 42
第一節 研究流程 42
第二節 研究對象 43
第三節 研究工具 43
一、專家原型評估 43
二、系統使用性量表 46
三、使用者互動滿意度量表 47
四、體感互動體驗量表 48
第四節 實驗流程與設計 50
第五節 實驗設備與過程 50
第五章 實驗結果與分析 52
第一節 系統使用性分析 52
第二節 使用者互動滿意度分析 57
第三節 體感互動體驗分析 61
第四節 實驗結果 65
第六章 結論與未來展望 67
第一節 結論 67
第二節 研究貢獻 68
第三節 未來研究與建議 68
參考文獻 70
附錄 74
附錄一 專家評估問卷 74
附錄二 受測者實驗同意書 76
一、中文部分
朱菀鈴 (2014)。手勢互動內容創作系統之開發與評估。國立台南大學數位學習科技學系碩士論文,未出版,台南市。
吳國斌、李斌、閻驥洲 (2013)。Kinect人機互動體感探索終極體驗:同場加映 微軟菁英大挑戰得獎專題剖析。台北:佳魁資訊。
林為光 (2011)。不同虛擬實境多媒體設計輔助對國小學童體積概念學習效益之研究。國立台中教育大學碩士論文,台中市。
唐國豪 (2003)。人與機器的對話:人機互動【專題】。科學發展,368,18-23。
馬珝皓 (2012)。多方位家電控制系統。銘傳大學碩士論文,台北市。
張樹安 (2011)。3D 擴增實境應用於行動導覽之研究。國立政治大學碩士論文,台北市。
張厥煒、黃智澄、施宇倫 (2013年12月)。體感鎖:一個肢體動作比對之應用。2013 NCS 全國計算機會議,台灣,台中。
陳瑜奇 (2012)。無標記式擴增實境創作系統之發展與評估。國立台南大學數位學習
科技學系碩士論文,台南市。
楊奇珍 (2015)。以體感方式參與敘事的3D互動敘事系統。國立政治大學碩士論文,台北市。
劉超群 (2013)。體感程式探索-使用 C#。台北:松崗。
Heresy (2011)。體感軟體開發的注意事項。2011 年 11 月 02 日。取自
http://kheresy.wordpress.com/2011/11/02/ni_design_recommand/
中村 薫、新里 祐教、鷲尾 友人 (2013)。OpenNI 3Dセンサ-プログラミング。日本:秀和システム。
二、西文部分
Azuma, R. T. (1997). A survey of augmented reality. Presence: Teleoperators and virtual environments, 6(4), 355-385.
Brooke, J. (1996). SUS-A quick and dirty usability scale. Usability evaluation in industry,
189(194), 4-7.
Bangor, A., Kortum, P., & Miller, J. (2009). Determining what individual SUS scores mean: Adding an adjective rating scale. Journal of usability studies,4(3), 114-123.
Beleboni, M. G. S. (2015). A brief overview of Microsoft Kinect and its applications. University of Southhampton: Southampton, UK.
Chin, J. P., Diehl, V. A., & Norman, K. L. (1988). Development of an instrument measuring user satisfaction of the human-computer interface. InProceedings of the SIGCHI conference on Human factors in computing systems (pp. 213-218). ACM.
Cassola, F., Morgado, L., de Carvalho, F., Paredes, H., Fonseca, B., & Martins, P. (2014). Online-Gym: a 3D virtual gymnasium using Kinect interaction. Procedia Technology, 13, 130-138.
DeVellis, R. F. (2003). Scale development: Theory and applications, Second Edition.
Thousand Oaks, CA: Sage Publications.
Dünser, A., & Hornecker, E. (2007). Lessons from an AR book study. In Proceedings of the 1st international conference on Tangible and embedded interaction (pp. 179-182). ACM.
Echeverría, M. A. M., Santana-Mancilla, P. C., Carrillo, H. F. Q., & Enciso, E. A. F. (2013). Natural user interfaces to teach math on higher education.Procedia-Social and Behavioral Sciences, 106, 1883-1889.
Fernández Valls, J. A., Penichet, V. M., & Lozano, M. D. (2014). Virtual 3D web environment for posture design in rehabilitation using Kinect. InProceedings of the 8th International Conference on Pervasive Computing Technologies for Healthcare (pp. 298-301). ICST (Institute for Computer Sciences, Social-Informatics and Telecommunications Engineering).
Gandy, M., MacIntyre, B., Presti, P., Dow, S., Bolter, J., Yarbrough, B., & O'Rear, N. (2005). AR Karaoke: Acting in your favorite scenes. InFourth IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR'05) (pp. 114-117). IEEE.
Gerling, K., Livingston, I., Nacke, L., & Mandryk, R. (2012). Full-body motion-based game interaction for older adults. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 1873-1882). ACM.
Gimeno, J., Morillo, P., Orduña, J. M., & Fernández, M. (2013). A new AR authoring tool using depth maps for industrial procedures. Computers in Industry, 64(9), 1263-1271.
Jaimes, A., & Sebe, N. (2007). Multimodal human–computer interaction: A survey. Computer vision and image understanding, 108(1), 116-134.
Kurtenbach, G., & Hulteen, E. A. (1990). Gestures in human-computer communication. The art of human-computer interface design, 309-317.
Lee, T., & Hollerer, T. (2007). Handy AR: Markerless inspection of augmented reality objects using fingertip tracking. In 2007 11th IEEE International Symposium on Wearable Computers (pp. 83-90). IEEE.
Milgram, P., Takemura, H., Utsumi, A., & Kishino, F. (1994). Augmented Reality: A class of displays on the reality-virtuality continuum.
Nielsen, J. (1993). Usability Engineering. Boston: Academic Press.
Oh, J. H., Kim, S. Y., Kim, S. H., & Shi, C. K. (2011). A Study of Interactive Art in the Narrative Form of" Magic Monkey". In Computer Graphics, Imaging and Visualization (CGIV), 2011 Eighth International Conference on (pp. 39-46). IEEE.
Park, J., Sil Kim, S., Park, H., & Woo, W. (2016). DreamHouse: NUI-based Photo-realistic AR Authoring System for Interior Design. In Proceedings of the 7th Augmented Human International Conference 2016 (p. 14). ACM.
Shneiderman, B., Plaisant, C., Cohen, M., & Jacobs, S. (2009). Designing the User Interface: Strategies for Effective Human-Computer Interaction (5th Edition). Boston: Addison-Wesley.
Shim, J., Kong, M., Yang, Y., Seo, J., & Han, T. D. (2014). Interactive features based augmented reality authoring tool. In 2014 IEEE International Conference on Consumer Electronics (ICCE) (pp. 47-50). IEEE.
Villaroman, N., Rowe, D., & Swan, B. (2011). Teaching natural user interaction using OpenNI and the Microsoft Kinect sensor. In Proceedings of the 2011 conference on Information technology education (pp. 227-232). ACM.
Wilson, A. D. (2010). Using a depth camera as a touch sensor. InACM international conference on interactive tabletops and surfaces (pp. 69-72). ACM.
電子全文 電子全文(網際網路公開日期:20210712)
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
系統版面圖檔 系統版面圖檔