跳到主要內容

臺灣博碩士論文加值系統

(44.201.99.222) 您好!臺灣時間:2022/12/03 14:28
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

我願授權國圖
: 
twitterline
研究生:湯澈
研究生(外文):Che Tang
論文名稱:基於深度學習之指數股票型基金趨勢預測
論文名稱(外文):Prediction of ETF Price Trend Based on Deep learning
指導教授:王家慶
指導教授(外文):Jia-Ching Wang
學位類別:碩士
校院名稱:國立中央大學
系所名稱:資訊工程學系在職專班
學門:工程學門
學類:電資工程學類
論文種類:學術論文
論文出版年:2021
畢業學年度:109
語文別:英文
論文頁數:45
中文關鍵詞:LSTM貝氏
外文關鍵詞:LSTMBayesian
相關次數:
  • 被引用被引用:0
  • 點閱點閱:91
  • 評分評分:
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:0
本論文將探討長短期記憶模型(Long Short-Term Memory)對股票市場每日收盤價預測之成效,研究目標對象為國內成分證券ETF中的數支股票。研究方法為將time step設定為一天,以每日的股市資訊為特徵值做預測,較接近現實的股票市場狀況。本研究選擇以元大台灣50(0050)、元大中型100(0051)、元大高股息(0056)及富邦台50(006208)四支熱門的ETF股票為分析對象。對於特徵點的選擇則是以技術面和籌碼面資料處理後篩選輸入。本論文會先設定超參數的維數及範圍,反覆測試並調整,以增進LSTM模型對個股之預測能力。為能呈現更理想的結果,後又在模型建置上結合超參數優化的功能。相較於傳統的網格搜索 (Grid Search)的方式,貝氏最佳化(Bayesian Optimization)運算效益更高。最後觀察到LSTM模型與貝氏參數最佳化,對於ETF股票收盤價之預測表現皆有一定的成效。
This Paper is discussing about the result that trying Long Short-Term Memory to predict closing prices of stocks.The research objects we chose ETFs tracking Taiwan stocks.Research method we set time step as one day. And we record market information as features to predict, make prediction result closer to reality market.In this research we chose four popular ETFs as research objects, including 0050, 0051, 0056, 006208. The choices of feature we picked some data of technical analysis and chip analysis, and input to model training after data pre-processing.In this research we will set dimension and space of hyper-parameters, repeat testing and adjustment to improve prediction ability on the stock.For getting better result, we combined hyperparameters tuning function on model structure. Bayesian Optimization have higher performance rather than traditional Grid Search.
Finally, we can learn that LSTM and Bayesian Optimization will boost prediction result of ETFs closing prices.
摘要………………………………………………………………………………………………………………………………………v
英文摘要………………………………………………………………………………………………………………………..……iii
誌謝……………………………………………………………………………………………………………………………………..iv
目錄………………………………………………………………………………………………………………………………………v
圖目錄…………………………………………………………………………………………………………………………………vii
表目錄………………………………………………………………………………………………………………………………….ix
第 1 章 緒論………………………………………………………………………………………………………………………1
1-1研究背景與動機…………………………………………………………………………………………………….1
1-2研究目的……………………………………………………………………………………………………………..…1
第2章 背景知識及文獻探討…………………………………………………………………………………………..…2
2-1循環神經網路RNN………………………………………………………………………………………….….…2
2-2 長短期記憶模型Long Short-Term Memory……………………………………….3
2-3 啟動函數Activation Function………………………………………………….….….6
2-4 最佳方法Optimizer……………………………………….....………………………………….7
2-5 損失函數Loss Function…………………………………………………………………………….7
2-6 貝氏參數最佳化Bayesian Optimization………………………………….…….8
2-7 國內成分證券ETF……………………………………………………………………………………………….9
第3章 研究方法……………………………………………………………………………………….………………..………11
3-1 實驗環境介紹……………………………………………………………………………………….………….11
3-2 研究架構………………………………………………………………………………………………………...11
3-3 資料介紹………………………………………………………………………………………………………...12
3-4 研究流程說明……………………………………………………………………………….………………….14
3-4-1資料前處理……………………………………………………………………………….……….14
3-4-2模型建立………………………………………………………………………….………………..15
3-4-3結合貝氏參數最佳化…………………………………………………………………...15
3-4-4實驗結果分析…………………….………………………………………………………....15
第4章 研究結果及分析………………………………………………………………….……...........16
4-1長短期記憶模型LSTM之預測結果………………………………………………………...…16
4-2貝氏參數最佳化調整之預測結果…………………………………………………………….…25
4-3實驗結果分析……………………………..……………………………………………………………..……30
第5章 結論………………………………………………………………….……....................31
第6章 參考文獻………………………………………………………........................32
〔1〕Sepp Hochreiter, Jurgen Schmidhuber,“Long Short-Term Memory”,Neural
Computation,9(8),1735-1780,Terrence J. Sejnowski,Nov.1997.
〔2〕網路資料:Understanding LSTM Networks:
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
〔3〕Vinod Nair,Geoffrey E. Hinton,“Rectified Linear Units Improve Restricted Boltzmann Machines”,ICML'10: Proceedings of the 27th International Conference on International Conference on Machine Learning,807-814,Haifa Israel,Jun. 2010
〔4〕Günter Klambauer,Thomas Unterthiner,Andreas Mayr,Sepp Hochreiter,“Self-Normalizing Neural Networks”,NIPS'17: Proceedings of the 31st International Conference on Neural Information Processing Systems,972–981,Long Beach California,America, Dec. 2017
〔5〕Djork-Arné Clevert, Thomas Unterthiner, Sepp Hochreiter ,”Fast and Accurate Deep Network Learning by Exponential Linear Units“, arXiv preprint arXiv:1511.07289, 2015.
〔6〕網路資料:Geoffrey Hinton: "Lecture 6e rmsprop: Divide the gradient by a running average of its recent magnitude":
https://www.cs.toronto.edu/~hinton/coursera/lecture6/lec6.pdf
〔7〕Diederik P.,Kingma,Jimmy Ba , Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014.
〔8〕James Bergstra,Daniel Yamins,David Cox ,”Making a Science of Model Search: Hyperparameter Optimization in Hundreds of Dimensions for Vision Architectures”, Proceedings of the 30th International Conference on Machine Learning, PMLR 28(1), 115-123, Atlanta GA ,America,June 2013.
〔9〕網路資料:台灣證交所ETF專區
https://www.twse.com.tw/zh/ETF/domestic
〔10〕網路資料:FindMind官網
https://finmind.github.io/quickstart/
連結至畢業學校之論文網頁點我開啟連結
註: 此連結為研究生畢業學校所提供,不一定有電子全文可供下載,若連結有誤,請點選上方之〝勘誤回報〞功能,我們會盡快修正,謝謝!
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top