資料載入處理中...
跳到主要內容
臺灣博碩士論文加值系統
:::
網站導覽
|
首頁
|
關於本站
|
聯絡我們
|
國圖首頁
|
常見問題
|
操作說明
English
|
FB 專頁
|
Mobile
免費會員
登入
|
註冊
切換版面粉紅色
切換版面綠色
切換版面橘色
切換版面淡藍色
切換版面黃色
切換版面藍色
功能切換導覽列
(34.204.172.188) 您好!臺灣時間:2023/09/27 20:29
字體大小:
字級大小SCRIPT,如您的瀏覽器不支援,IE6請利用鍵盤按住ALT鍵 + V → X → (G)最大(L)較大(M)中(S)較小(A)小,來選擇適合您的文字大小,如為IE7或Firefoxy瀏覽器則可利用鍵盤 Ctrl + (+)放大 (-)縮小來改變字型大小。
字體大小變更功能,需開啟瀏覽器的JAVASCRIPT功能
:::
詳目顯示
recordfocus
第 1 筆 / 共 1 筆
/1
頁
論文基本資料
摘要
外文摘要
目次
參考文獻
電子全文
論文連結
QR Code
本論文永久網址
:
複製永久網址
Twitter
研究生:
謝亞衛
研究生(外文):
Hsieh, Ya-Wei
論文名稱:
以神經網路進行算子學習
論文名稱(外文):
Operator learning with neural network - A direct construction
指導教授:
林得勝
指導教授(外文):
Lin, Te-Sheng
口試委員:
曾昱豪
、
胡偉帆
口試委員(外文):
Tseng, Yu-Hao
、
Hu, Wei-Fan
口試日期:
2022-07-19
學位類別:
碩士
校院名稱:
國立陽明交通大學
系所名稱:
應用數學系所
學門:
數學及統計學門
學類:
數學學類
論文種類:
學術論文
論文出版年:
2022
畢業學年度:
110
語文別:
英文
論文頁數:
40
中文關鍵詞:
神經網路
、
微分矩陣
、
算子學習
、
值譜法
、
Lagrange插值法
、
近似
外文關鍵詞:
Neural Network
、
Differential Matrix
、
Operator learning
、
Spectral Method
、
Lagrange interpolation
、
Approximation
相關次數:
被引用:0
點閱:82
評分:
下載:2
書目收藏:0
神經網路的架構是機器學習過程中很重要的工具之一。而DeepONet 神經
網路是機器學習的一個新方法,我們主要關心DeepONet 的結構。許多機器學習的問題並不能一開始就立刻訓練出如預期結果的函數。實際上,大部分情況我們無從得知滿足條件的解到底存不存在,或者我們到底是不是訓練出這個問題的真解。一般來說,如果得到的結果不理想,我們就改變一些參數、增加或減少一些layors,然後重新訓練,直到訓練出預期的結果為止。
在本論文中,我們以微分算子為例。我們主要使用一些數值分析的方法,比如Sepctral Theorem 以及Lagrange 插值多項式來構造一個算子的近似函數,使這個近似函數構造的過程滿足神經網路的結構。如此一來,我們不僅說明了滿足此神經網路問題的函數解真實存在,同時也說明了利用傳統的數值方法來構造函數也能有不錯的近似效果。
在本論文的最後,我們利用實際的例子來做模擬。我們也探討了當給定的sensors 增加或減少,對於整體近似的效果的影響,以及當sensors 的離散程度改變時,對近似函數的影響如何。
The architecture of neural networks is one of the most important tools in the process of machine learning. The DeepONet neural networks are a new approach to machine learning, and we are mainly interested in the structure of DeepONet. Many machine learning problems cannot be trained immediately at the beginning to produce functions with the expected results. In fact, in most cases we have no way to know whether the solution satisfying the condition exists or not, or whether we have trained the true solution of the problem or not. If the result is not satisfactory, we change some parameters, add or subtract some layers, and retrain until we get
the expected result.
In this thesis, we take differential operators as an example. We mainly use numerical analysis methods such as Spectral Theorem and Lagrange interpolation polynomials to construct an approximation function for the operator so that the process of constructing the approximation function satisfies the structure of the neural network. In this way, we not only show the existence of functional solutions to this neural network problem, but also show that it is possible to construct functions using the conventional numerical methods with good approximation results. At the end of this thesis, we will demonstrate some practical examples. We also investigate the effect of increasing or decreasing the number of sensors on the overall approximation effect, and how the approximation function is affected when the dispersion of sensors changes.
摘要 i
Abstract ii
誌謝 iv
Content v
List of Figures vii
1 Introduction 1
2 Interpolating Polynomials 3
2.1 Lagrange Interpolation 3
2.2 Hermite Interpolation 6
3 Methods of Numerical Differentiation 9
3.1 The Finite Difference Method 9
3.1.1 Truncation errors 11
3.1.2 Example and Numerical Results 12
3.2 The Richardson Extrapolation 15
3.3 The Spectral Method 21
3.4 Comparison of different methods 24
4 Neural Network 27
4.1 The Universal Approximation Theorem 27
4.2 Construction of Approximations 28
4.3 Numerical Results 33
5 Conclusion and Future Work 38
Bibliography 40
[1] Annette M. Burden, Richard L. Burden, and J. Douglas Faires. Numerical Analysis, 10th ed., pages 109–110, 134–135. Cengage, 2016.
[2] Catherine F. Higham and Desmond J. Higham. Deep learning: An introduction for applied mathematicians. SIAM Review, 61(3):860–891, jan 2019.
[3] Randall L. LeVeque. Finite Difference Methods for Ordinary and Partial Differential Equation: steady-state and time0pedendent problems, pages 3–7. Society for industrial and Applied Mathematics, 2007.
[4] Lu Lu, Pengzhan Jin, Guofei Pang, Handy Zang, and George Karniadakis. Learning nonlinear operators via deeponet based on the universal approximation theorem of operators. Nature Machine Intelligence, 3:218–229, 03 2021.
[5] Jengnan Tzeng. Linear regression to minimize the total error of the numerical differentiation. East Asian Journal on Applied Mathematics, 7:810–826, 11 2018.
電子全文
連結至畢業學校之論文網頁
點我開啟連結
註: 此連結為研究生畢業學校所提供,不一定有電子全文可供下載,若連結有誤,請點選上方之〝勘誤回報〞功能,我們會盡快修正,謝謝!
推文
當script無法執行時可按︰
推文
網路書籤
當script無法執行時可按︰
網路書籤
推薦
當script無法執行時可按︰
推薦
評分
當script無法執行時可按︰
評分
引用網址
當script無法執行時可按︰
引用網址
轉寄
當script無法執行時可按︰
轉寄
top
相關論文
相關期刊
熱門點閱論文
1.
以神經網路進行算子學習
無相關期刊
1.
增量式學習的策略
2.
使用 Neural ODE 家族預測台灣確診病例數
3.
利用區域標識與各向異性擴散映射實現非線性巨量資料可視化
4.
以神經網路進行算子學習
5.
降維演算法的即時更新方法
6.
以神經網路進行函數逼近
7.
利用流形學習分析動脈血壓之波形
8.
Cahn-Hilliard方程在圓盤上的數值模擬
9.
在不同幾何圖形中應用譜方法解修正泊松-玻爾茲曼方程
10.
具成本效益與電磁干擾屏蔽之毫米波封裝天線
11.
分群後分類方法於二元分類不平衡問題:應用於信用評分模型
12.
以時域聚焦限制深度學習電腦全像術進行三維多光子激發
13.
優化航材庫存管理-以S維修工廠輪轂為例
14.
以資料探勘方法探討新北市交通違規行為與相關特性之關聯性研究
15.
以勞檢之大數據分析檢視營造業安全衛生措施 -以臺北市為例
簡易查詢
|
進階查詢
|
熱門排行
|
我的研究室