跳到主要內容

臺灣博碩士論文加值系統

(44.200.171.156) 您好!臺灣時間:2023/03/22 00:53
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

: 
twitterline
研究生:林珈妤
研究生(外文):LIN, CHIA-YU
論文名稱:基於生成對抗網路的音樂節奏遊戲關卡自動生成之研究
論文名稱(外文):A Procedural Game Level Generation for Music Rhythm Game by Generative Adversarial Network
指導教授:王學武王學武引用關係
指導教授(外文):WANG, HSUEH-WU
口試委員:章耀勳范丙林
口試委員(外文):CHANG, YAO-XUNFAN, PING-LIN
口試日期:2022-07-07
學位類別:碩士
校院名稱:國立臺北教育大學
系所名稱:數位科技設計學系(含玩具與遊戲設計碩士班)
學門:電算機學門
學類:軟體發展學類
論文種類:學術論文
論文出版年:2022
畢業學年度:110
語文別:中文
論文頁數:87
中文關鍵詞:音樂節奏遊戲機器學習自動化生成生成對抗網路
外文關鍵詞:Music Rhythm GameMachine LearningProcedural Content GenerationGenerative Adversarial Networks
相關次數:
  • 被引用被引用:0
  • 點閱點閱:65
  • 評分評分:
  • 下載下載:14
  • 收藏至我的研究室書目清單書目收藏:0
音樂節奏遊戲的核心就是譜面製作,為了讓拍點能與音樂節奏契合,譜面的設計多採用人工編輯的方式,需要耗費大量的時間成本與人力成本。本研究設計了一個以生成對抗網路為基礎的自動生成音樂節奏遊戲關卡譜面的方法。首先藉由蒐集各種難易度與風格的音樂,分析並建立模型資料庫,然後針對所給予的樂曲,透過生成對抗網路模型資料庫產生對應的音樂譜面,並將譜面的節奏對應到2D跑酷遊戲關卡中的三種不同障礙物。此三種障礙物分別對應到單點、雙點與按壓,讓玩家的點擊能與音樂節奏產生對應。
本研究首先邀請10位玩家進行遊戲的前測,填寫遊戲經驗與遊戲體驗的問卷。根據玩家施測的表現與結果,調整與重新制定關卡難度的生成規則。然後依據這個規則重新自動產生新的遊戲關卡,再另外邀請15位玩家測試這個新的遊戲關卡,並填寫遊戲體驗的問卷調查。根據玩家施測的表現與結果,分析玩家的障礙物碰觸次數,並與前測的碰觸次數進行比較,發現經過難易度修正後,玩家的非操作碰觸發生的機率大幅降低,讓玩家獲得更良好的遊戲體驗。根據遊戲體驗問卷結果,顯示經過難易度修正後並不會影響生成關卡譜面與音樂節奏的對應,且更能讓玩家感受到三種障礙物的表現差異。
The core of the music game is the design of the beatmap. In order to make the beat fit the music rhythm, the beatmap is mostly designed by manual editing, which requires a lot of time and labor costs.
This paper designed a method that automatically generate music game beatmap by Generative Adversarial Network. Based on Generative Adversarial Network, design of an algorithm for automatic beatmap generation. First, analyze and build a database of GAN (Generative Adversarial Networks) models by collecting music of different difficulty and styles, then generate the beatmap of the given music through the GAN model database. And match the rhythm to three different obstacles in the 2D parkour game, these three different obstacles correspond to single tap, double tap and press, and let the player’s actions correspond to the music rhythm.
The study experiment first invited 10 players to take a pre-test of the game and filled out a questionnaire on their gaming experience. Based on the performance and results, adjusted and reformulated the rules for generating the beatmap. Then generated new game levels according to this rule, invited 15 players to test this new game level and filled out a questionnaire on their gaming experience. Based on the performance and results, analyzed the number of times that the player hit the obstacles, and compared with the number of times in the pre-test. The result shows that after the correction of difficulty, the probability of hitting the obstacles is greatly reduced, and gives the players better game experience. According to the results of the game experience questionnaire, it shows that the correction of difficulty does not affect the correspondence between the game beatmap and the music rhythm, and it allows players to feel the difference in the performance of the three obstacles.
中文摘要 i
Abstract ii
目錄 iv
表目錄 vii
圖目錄 viii
第一章 緒論 1
第一節 研究背景與動機 1
第二節 研究目的與研究問題 4
一、 研究目的 4
二、 研究問題 4
第三節 研究範圍與限制 5
一、 音樂採用 5
二、 音樂譜面限制 5
第二章 文獻探討 7
第一節 機器學習 7
一、 機器學習的起源與發展 7
二、 機器學習的種類 13
三、 機器學習的應用 13
第二節 生成對抗網路 19
一、 生成對抗網路的定義與特性 19
二、 生成對抗網路用於音樂領域之相關研究 20
第三節 音樂節奏遊戲 22
一、 音樂節奏遊戲的起源與發展 22
二、 現有音樂節奏遊戲 28
三、 音樂節奏遊戲自動生成之相關研究 38
第四節 小結 42
第三章 研究方法 43
第一節 研究架構與設計 43
第二節 研究工具 45
一、 音樂節奏遊戲 45
二、 問卷設計 45
第三節 自動化譜面生成 47
一、 訓練資料蒐集與分類整理 47
二、 生成對抗網路模型 48
三、 音樂資料後處理 50
第四節 音樂節奏遊戲設計 52
一、 遊戲介面設計 52
二、 遊戲關卡設計 54
第四章 研究結果與討論 59
第一節 遊戲前測結果 59
一、 玩家遊戲經驗 59
二、 玩家遊戲表現 62
第二節 關卡譜面難度分析 66
第三節 遊戲後測結果 70
一、 玩家基本資料 70
二、 玩家遊戲表現 70
第四節 玩家遊戲體驗結果 72
一、 難度修正前問卷調查結果 72
二、 難度修正後問卷調查結果 74
三、 遊戲體驗訪問 75
第五節 下落式音樂節奏遊戲 76
第五章 結論與建議 79
第一節 結論 79
一、 以生成對抗網路為基礎的音樂節奏遊戲自動關卡生成的演算法 79
二、 玩家對於生成關卡節奏的體驗 80
第二節 建議 81
參考文獻 83
一、英文文獻
1. Boulton, C. (2021). Honeywell tech chief drives the digital agenda. Retrieved from https://www.cio.com/article/188981/honeywell-tech-chief-drives-the-digital-agenda.html

2. Brunner, G., Wang, Y., Wattenhofer, R., & Zhao, S. (2018). Symbolic Music Genre Transfer with CycleGAN. 30th International Conference on Tools with Artificial Intelligence (ICTAI), Volos, Greece. https://arxiv.org/pdf/1809.07575.pdf

3. Cífka, O. (2021) Deep learning methods for music style transfer. https://tel.archives-ouvertes.fr/tel-03499991/document

4. Cortes, C., & Vapnik, V. (1995). Support-Vector Networks. Machine Learning, 20, 273-297.

5. Dahl, G. E., Yu, D., Deng, L., & Acero, A. (2012). Context-Dependent Pre-Trained Deep Neural Networks for Large-Vocabulary Speech Recognition. IEEE Transactions on Audio, Speech, and Language Processing, 20(1), 30-42.

6. Donahue, C., Lipton, Z.C., McAuley, J. (2017) Dance dance convolution. International Conference on Machine Learning, 1039–1048. https://proceedings.mlr.press/v70/donahue17a.html

7. Dong, H. W., Hsiao, W. Y., Yang, L. C., & Yang, Y. H. (2018). MuseGAN: Multi-Track Sequential Generative. The Thirty-Second AAAI Conference on Artificial Intelligence (AAAI-18), New Orleans, Louisiana, USA. https://doi.org/10.1609/aaai.v32i1.11312

8. Engel, J., Agrawal, K. K., Chen, S., Gulrajani, I., Donahue, C., & Roberts, A. (2019). GANSynth: Adversarial Neural Audio Synthesis. ICLR 2019 Conference, New Orleans, LA, USA. https://openreview.net/forum?id=H1xQVn09FX

9. Gajecki, T. & Nogueira, W. (2018). Deep learning models to remix music for cochlear implant users. The Journal of the Acoustical Society of America, 143(6), 3602-3615. https://doi.org/10.1121/1.5042056

10. Golge, E. (2017, April 1). Brief History of Machine Learning. Chatbot News Daily. https://chatbotnewsdaily.com/since-the-initial-standpoint-of-science-technology-and-ai-scientists-following-blaise-pascal-and-804ac13d8151

11. Google (2019). Magenta Studio. https://magenta.tensorflow.org/studio

12. Hebb, D. O. (1949). The Organization of Behavior: A Neuropsychological Theory.

13. Hinton, G.E., & Salakhutdinov, R. R. (2006). Reducing the Dimensionality of Data with Neural Networks. Science, 313, 504-507.

14. Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2017). ImageNet classification with deep convolutional neural networks. Communications of the ACM, 60(6), 84-90. https://doi.org/10.1145/3065386

15. Kočur, J. (2021). Endless runner game with dynamic difficulty adjustment. [Unpublished master’s thesis]. Charles University. https://dspace.cuni.cz/bitstream/handle/20.500.11956/148732/120396947.pdf?sequence=1

16. Langr J., & Bok, V. (2019). GANs in Action: Deep learning with Generative Adversarial Networks. Manning Publications

17. Lecun, Y., & Bengio, Y. (1995). Convolutional Networks for Images, Speech, and Time-Series [Paper presentation]. The Handbook of Brain Theory and Neural Networks. https://www.researchgate.net/publication/216792820_Convolutional_Networks_for_Images_Speech_and_Time-Series

18. Minsky, M., & Papert, S. (1969). Perceptrons: an introduction to computational geometry. The MIT Press.

19. Ng, A. Y., Dean, J., Corrado, G. S., Chen, K., Devin, M., Monga, R., Ranzato, M. A., & Le, Q. V. (2012). Building High-level Features Using Large Scale Unsupervised Learning [Paper presentation]. Proceedings of the 29 th International Conference on Machine Learning, Edinburgh, Scotland, UK. https://static.googleusercontent.com/media/research.google.com/zh-TW//pubs/archive/38115.pdf

20. Quinlan, J. R. (1985). Induction of Decision Trees. Machine Learning 1. 81-106

21. Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review, 65(6), 386-408. https://doi.org/10.1037/h0042519

22. Samuel, A.L. (1959). Some Studies in Machine Learning Using the Game of Checkers. IBM Journal of Research and Development, 3(3), 210-229.

23. Smith, J. R. (2016). IBM Research Takes Watson to Hollywood with the First “Cognitive Movie Trailer”. Retrieved from https://www.ibm.com/blogs/think/2016/08/cognitive-movie-trailer/

24. Takada, A., Yamazaki, D., Yoshida, Y., Ganbat, N., Shimotomai, T., Hamada, N., Liu, L., Yamamoto, T., Sakurai, D. (2022). GenéLive! Generating Rhythm Actions in Love Live! [Unpublished master’s thesis]. Kyushu University. https://arxiv.org/pdf/2202.12823v1.pdf

25. Tsujino Y, Yamanishi R (2018) Dance dance gradation: A generation of fine-tuned dance charts. International Conference on Entertainment Computing, Springer, 175–187. https://www.semanticscholar.org/paper/Dance-Dance-Gradation%3A-A-Generation-of-Fine-Tuned-Tsujino-Yamanishi/c0eaebc9b9110a3f6747f00b380bf08a33e31116

26. Turing, A.M. (1950). Computing Machinery and Intelligence. Mind, 59, 433-460.

27. Vidman, S. (2018). Dynamic Difficulty Adjustment & Procedural Content Generation in an Endless Runner. [Unpublished student thesis]. Luleå University of Technology, Department of Computer Science, Electrical and Space Engineering. http://www.diva-portal.org/smash/record.jsf?pid=diva2%3A1238789&dswid=-9888

28. Werbos, P. J. (1988). Generalization of backpropagation with application to a recurrent gas market model. Neural Networks, 1(4), 339-356.

二、中文文獻
1.王聿泰、陳泓勳(2019)。什麼?機器人可以幫我們看病。取自
https://www.narlabs.org.tw/xcscience/cont?xsmsid=0I148638629329404252&qcat=0I164512522332344267&sid=0J161330571491982560

2.申一帆、樊曉芳(2019)。世界頂級電影特效公司都在讓AI「接管」特效製作。
機器之心。取自https://www.jiqizhixin.com/documents/06108d22-3bbb-4411-bb2e-e806ac1f1680

3.李文勛(2016)。以難度曲線為基礎的程序化關卡生成機制之研究。國立臺北教育大學數位科技設計學系玩具與遊戲設計碩士班碩士論文,臺北市。取自https://ndltd.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi/ccd=miyqYh/record?r1=2&h1=0

4.李永和(2019)。輔佐金融業蛻變轉型的關鍵-從大數據到 AI 應用。財金資訊
季刊,95。取自https://www.fisc.com.tw/Upload/d56378d2-ff51-4552-
9ab2-12ff1dd64a84/TC/9503.pdf

5.周伯鑫醫師團隊(2021)。利用AI人工智慧的集合型模組,從X光側面照輔助偵
測脊椎骨折。取自https://matching.org.tw/matching/index.php?action=product_detail&prod_no=P0000100002645

6.郭易倫(2021)。基於生成對抗網路之音樂創作系統。國立中正大學電機工程研究所碩士論文,嘉義縣。取自https://ndltd.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi/ccd=3quYu3/record?r1=1&h1=7

7.陳愷新(2020)。連假人擠人?引進這種交通AI就不必擔心塞車、買不到票|SAS專欄。未來城市。取自https://futurecity.cw.com.tw/article/1219

8.黃浩軒(2020)。以生成對抗網路為基礎之音樂風格判斷研究。淡江大學資訊工程學系碩士班碩士論文,新北市。取自https://ndltd.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi/ccd=3quYu3/record?r1=3&h1=7

9.楊羽農(2017)。基於MIDI格式之音樂節奏遊戲拍譜自動化生成之研究。國立東華大學資訊工程學系碩士論文,花蓮縣。取自https://hdl.handle.net/11296/duyujs

10.葉錦頤(2016)。音樂節奏遊戲與其拍譜編輯工具之研究。國立東華大學資訊工
程學系碩士論文,花蓮縣。取自https://ndltd.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi/login?o=dnclcdr&s=id=%22104NDHU5392025%22.&searchmode=basic

11.網易科技(2019)。AI進軍娛樂業之後,好萊塢已經無關緊要!。取自
https://www.techbang.com/posts/70891-after-ais-foray-into-entertainment-hollywood-has-become-irrelevant

12.蕭俊傑(2019)。人工智慧與金融應用。財金資訊季刊,95。取自
https://www.fisc.com.tw/Upload/d56378d2-ff51-4552-9ab2-
12ff1dd64a84/TC/9504.pdf
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
無相關期刊