跳到主要內容

臺灣博碩士論文加值系統

(3.235.78.122) 您好!臺灣時間:2022/06/29 21:11
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

我願授權國圖
: 
twitterline
研究生:沈昇勳
研究生(外文):Sheng-Syun Shen
論文名稱:藉助線上課程之自動結構化、分類與理解以提升學習效率
論文名稱(外文):More Efficient Learning by Structuring, Classifying and Understanding Lectures in Online Courses
指導教授:李琳山李琳山引用關係
口試委員:李宏毅于天立
口試日期:2016-08-16
學位類別:碩士
校院名稱:國立臺灣大學
系所名稱:電信工程學研究所
學門:工程學門
學類:電資工程學類
論文種類:學術論文
論文出版年:2016
畢業學年度:104
語文別:中文
論文頁數:78
中文關鍵詞:線上課程深層學習語意理解支撐向量機
外文關鍵詞:Massive Open Online CoursesDeep LearningNatural Language UnderstandingSupport Vector Machine
相關次數:
  • 被引用被引用:0
  • 點閱點閱:480
  • 評分評分:
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:0
近年來線上課程平台發展日益蓬勃,諸如Cousera、edX等線上課程網站均大受歡迎,因此線上課程漸漸成為學習知識的一項重要途徑。在這些學習平台上,充滿著各類型的課程供使用者選擇,其內容之多、主題分佈之廣,儼然就是一個多元豐富架構完整的知識網。不同於傳統學習知識的途徑與媒介,線上課程平台缺乏與授課教師面對面互動的機會,而此一不同或多或少對使用者的學習造成一些限制。
本論文旨在研發建構一個更完整的線上課程平台所需的各項輔助學習相關技術,希望能夠輔助線上課程平台的使用者,讓他們在學習時有更多資訊可更方便有效率的學習。這些技術包括課程內與課程間的教材結構化,在課程內就投影片上的文字與教師講課的語音內容進行連結,也在內容相關的課程之間建立連結或先後關係。為讓使用者能夠更方便地檢索他想查詢的課程,本論文亦研究能將課程依照內容主題進行分類的技術。此外,本論文亦研究了就語音數位內容進行語意理解的可能,期許未來機器能夠自行聽懂課程內容,更有機會可以為使用者進行更多提升學習效率的有關分析。

The increasing popularity of Massive Open Online Courses (MOOCs) has resulted in a huge number of courses available over the Internet under various MOOCs platforms such as edX and Coursera. The wide variety and efficiency of such courses has offered great convenience to learners. However, it is still relatively inconvenient for some learners for lack of face-to-face interactions with lecturers in such platforms.
Considering the above problem, this thesis aims at creating a set of new technologies for a comprehensive online learning platform, which could help users to learn more efficiently. This platform includes such functionalities as the following: structuring the lectures, within a course and across many courses, extracting the key term sets for better classifying the lectures, and machine understanding on the lectures. Lecture structuring includes not only the alignment between slide contents and spoken utterances within a course, but also providing the connections and prerequisite relationships between courses. Besides, automatically extracted key term sets for the lectures offer a better way for users to retrieve exactly the desired lectures. This thesis also conducts studies on machine understanding on the lectures, hoping to improve the learning scenario in the future.

Contents
口試委員會審定書. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i
誌謝. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii
中文摘要. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
英文摘要. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
一、導論. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 研究背景及動機. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 相關研究. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 研究方向. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 章節安排. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
二、背景知識. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1 支撐向量機(Support Vector Machine) . . . . . . . . . . . . . . . . . 5
2.1.1 基本介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.2 訓練方法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.3 結構式支撐向量機(Structured Support Vector Machine) . . . 7
2.2 深層類神經網路(Deep Neural Network) . . . . . . . . . . . . . . . . 10
2.2.1 基本介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.2 訓練方法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.3 長短期記憶類神經網路(Long Short-term Memory Network) 14
2.3 詞彙表示法- 詞嵌入(Word Embedding) . . . . . . . . . . . . . . . . 17
2.3.1 基本介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.2 跳躍文法模型(Skip-gram Model) . . . . . . . . . . . . . . . 19
2.4 問答系統簡介. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.1 基本介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.2 檢索為基礎之問答系統. . . . . . . . . . . . . . . . . . . . . . 21
2.4.3 知識為基礎之問答系統. . . . . . . . . . . . . . . . . . . . . . 22
2.4.4 類神經網路之問答系統. . . . . . . . . . . . . . . . . . . . . . 22
三、線上課程結構化:課程內結構連結. . . . . . . . . . . . . . . . . . . . . . 23
3.1 簡介. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 基本定義. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 系統架構. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 前處理及特徵抽取. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5 文字比對及信賴度傳播. . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5.1 文字比對之相似度衡量. . . . . . . . . . . . . . . . . . . . . . 27
3.5.2 可信賴連結. . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.3 信賴傳播. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.6 引用結構式支撐向量機進行連結判定. . . . . . . . . . . . . . . . . . 29
3.6.1 訓練目標. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.2 特徵抽取. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.3 訓練與測試方法. . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.7 分數權重調整. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.8 實驗結果與討論. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.8.1 實驗設置. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.8.2 結果討論. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.9 本章總結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
四、線上課程結構化:課程間結構連結. . . . . . . . . . . . . . . . . . . . . . 38
4.1 基本定義與系統架構. . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2 相似內容連結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.1 單一比對相似度. . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2 考慮全域結構. . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3 先備關係判斷. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.1 特徵抽取與表示. . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.2 支撐向量機訓練. . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4 基本實驗配置. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.5 實驗結果與討論. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.5.1 相似內容連結. . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.5.2 先備關係判斷. . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.5.3 使用者調查. . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.6 本章總結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
五、課程分類系統. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.1 簡介. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2 類神經網路模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.1 多層感知器模型. . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 長短期記憶神經網路模型. . . . . . . . . . . . . . . . . . . . 54
5.3 畫重點式長短期記憶神經網路模型. . . . . . . . . . . . . . . . . . . 55
5.3.1 畫重點機制簡介. . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.2 提出架構. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.4 基本實驗配置. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.5 實驗結果與討論. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.6 畫重點機制作用之探討. . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.7 本章總結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
六、語意理解:問答系統. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.1 簡介. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2 畫重點與回顧式遞迴神經網路(AMRNN) . . . . . . . . . . . . . . 64
6.2.1 系統架構簡介. . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.2.2 問題與選項之向量表示法. . . . . . . . . . . . . . . . . . . . 65
6.2.3 畫重點機制與故事表示法. . . . . . . . . . . . . . . . . . . . 66
6.2.4 回顧機制. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2.5 答案選擇機制. . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3 基本實驗配置. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.3.1 前置處理. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.3.2 基準實驗(Baseline) . . . . . . . . . . . . . . . . . . . . . . . 69
6.4 實驗結果與討論. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.5 範例與分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.6 本章總結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
七、結論與展望. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.1 結論. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.2 未來研究方向. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
參考文獻. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

[1] Yiming Yang, Hanxiao Liu, Jaime Carbonell, and Wanli Ma, “Concept graph learning from educational data,” in Proceedings of the Eighth ACM International Conference on Web Search and Data Mining. ACM, 2015, pp. 159–168.
[2] Joao Silva, Lu´ısa Coheur, Ana Cristina Mendes, and Andreas Wichert, “From symbolic to sub-symbolic information in question classification,” Artificial Intelligence Review, vol. 35, no. 2, pp. 137–154, 2011.
[3] Klaus Ries, “Hmm and neural network based speech act detection,” in Acoustics, Speech, and Signal Processing, 1999. Proceedings., 1999 IEEE International Conference on. IEEE, 1999, vol. 1, pp. 497–500.
[4] Kaisheng Yao, Baolin Peng, Yu Zhang, Dong Yu, Geoffrey Zweig, and Yangyang Shi, “Spoken language understanding using long short-term memory neural networks,” in Spoken Language Technology Workshop (SLT), 2014 IEEE. IEEE, 2014, pp. 189–194.
[5] Jan K Chorowski, Dzmitry Bahdanau, Dmitriy Serdyuk, Kyunghyun Cho, and Yoshua Bengio, “Attention-based models for speech recognition,” in Advances in Neural Information Processing Systems, 2015, pp. 577–585.
[6] Antoine Bordes, Nicolas Usunier, Sumit Chopra, and Jason Weston, “Largescale simple question answering with memory networks,” arXiv preprint arXiv:1506.02075, 2015.
[7] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhutdinov, Richard S Zemel, and Yoshua Bengio, “Show, attend and tell: Neural image caption generation with visual attention,” arXiv preprint arXiv:1502.03044, vol. 2, no. 3, pp. 5, 2015.
[8] Huijuan Xu and Kate Saenko, “Ask, attend and answer: Exploring question-guided spatial attention for visual question answering,” arXiv preprint arXiv:1511.05234, 2015.
[9] Geoffrey E Hinton, Simon Osindero, and Yee-Whye Teh, “A fast learning algorithm for deep belief nets,” Neural computation, vol. 18, no. 7, pp. 1527–1554, 2006.
[10] T Mikolov and J Dean, “Distributed representations of words and phrases and their compositionality,” Advances in neural information processing systems, 2013.
[11] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean, “Efficient estimation of word representations in vector space,” arXiv preprint arXiv:1301.3781, 2013.
[12] Ioannis Tsochantaridis, Thorsten Joachims, Thomas Hofmann, and Yasemin Altun, “Large margin methods for structured and interdependent output variables,” Journal of Machine Learning Research, vol. 6, no. Sep, pp. 1453–1484, 2005.
[13] Willie Walker, Paul Lamere, Philip Kwok, Bhiksha Raj, Rita Singh, Evandro Gouvea, Peter Wolf, and Joe Woelfel, “Sphinx-4: A flexible open source framework for speech recognition,” 2004.
[14] Jeffrey Pennington, Richard Socher, and Christopher D Manning, “Glove: Global vectors for word representation.,” in EMNLP, 2014, vol. 14, pp. 1532–43.
[15] Mayur Datar, Aristides Gionis, Piotr Indyk, and Rajeev Motwani, “Maintaining stream statistics over sliding windows,” SIAM journal on computing, vol. 31, no. 6, pp. 1794–1813, 2002.
[16] Makarand Tapaswi, Yukun Zhu, Rainer Stiefelhagen, Antonio Torralba, Raquel Urtasun, and Sanja Fidler, “Movieqa: Understanding stories in movies through question-answering,” arXiv preprint arXiv:1512.02902, 2015.
[17] Sainbayar Sukhbaatar, Jason Weston, Rob Fergus, et al., “End-to-end memory networks,” in Advances in neural information processing systems, 2015, pp. 2440–2448.

QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top