`

Deep Neural Networks with Asymptotic Behavior for Function Approximation and Regression

创建于 更新于

摘要

本报告提出了一种结合已知渐近行为和无约束深度神经网络(DNN)的方法,通过乘以特殊多项式实现渐近形式,在函数逼近和回归问题中显著提升了拟合精度和收敛速度。以线性渐近形式为例,展示了该方法在一维函数及Black-Scholes定价函数拟合中的优越性能,固定渐近参数优于可训练参数,且包含导数信息的差分机器学习(DML)较单纯函数值拟合(VML)进一步提升效果[page::0][page::3][page::6][page::9][page::22]。

速读内容


结合已知渐近行为的深度神经网络方法介绍 [page::0][page::1]

  • 传统DNN难以准确捕捉函数的渐近行为,特别是金融定价函数常具线性渐近特征。

- 本文提出用渐近函数与多项式乘积项结合无约束DNN的构造,保证渐近区外函数恢复渐近形式,区内由DNN调整。
  • 该方法易于实现,适用于一维及多维函数逼近和回归问题。


线性渐近形式构造和损失函数设计 [page::1][page::2]

  • 渐近函数用分段线性及三次插值平滑连接,zasymptotic多项式定义为零于渐近域外的多项式,保证平滑过渡。

- VML损失仅拟合函数值,DML损失同时拟合函数值及导数,后者捕获更多函数特性。

一维示范函数逼近结果比较 [page::3][page::4][page::6]


  • 比较无渐近处理、带可训练参数渐近处理及固定参数渐近处理的VML和DML训练结果。

- 渐近处理显著提升拟合准确度,固定参数表现更佳,DML优于VML。
  • 损失及残差曲线清晰展示了方法有效性。


Black-Scholes定价函数拟合及回归实验 [page::9][page::10][page::16][page::18]


  • 在Black-Scholes欧式看涨期权定价函数拟合中,同样应用渐近处理提升DNN拟合精度。

- 采用50,000均匀采样数据及仿真回归样本,分别用VML和DML训练,带渐近处理均收敛更快误差更低。
  • 回归场景下,渐近处理对噪声数据同样有效,验证了方法泛化能力。


不同样本量及非零利率影响实验 [page::15][page::21]


  • 样本量从$2^{10}$增加到$2^{16}$,拟合误差仅微弱改善,表明该方法训练稳定样本要求较宽松。

- 添加非零风险中性利率对拟合结果无显著影响,确保方法在实际环境的适用性。

结论:渐近行为嵌入DNN的优势及未来方向 [page::22]

  • 本文方法实现简单,效果显著,固定渐近参数优于可训练参数。

- 方法对金融定价函数等有已知渐近特征函数拟合及回归均适用。
  • 未来工作拟拓展至多维指数型渐近行为及更复杂金融模型,结合强化学习等技术深入应用。

深度阅读

深度解析报告:基于无约束深度神经网络的渐近行为函数逼近与机器学习方法研究



---

1. 元数据与概览


  • 报告标题:未明文标识,但内容核心围绕“基于无约束深度神经网络(DNN)的渐近行为函数逼近方法及其在函数近似与回归中的应用”。

- 作者:Hardik Routray 和 Bernhard Hientzsch,均隶属于Wells Fargo Bank, N.A.
  • 发布日期:2025年7月8日

- 研究对象与主题
- 研究定量金融中定价函数等科学及金融问题的函数逼近,重点在如何将已知的渐近行为(特别是线性渐近形式)与DNN结合,实现更优的函数近似与回归。
- 提出一种基于DNN与特定多项式保证渐近行为匹配的混合函数构造方法。
- 对比“纯DNN”逼近与结合渐近行为的DNN逼近在函数值及导数值拟合(VML与DML)任务上的表现和收敛速度。
- 具体应用包括函数逼近实例和基于Black-Scholes定价模型的函数逼近与回归。
  • 报告核心论点

- 假定目标函数具备已知的渐近形式时,直接用DNN(不加约束)去学习函数,无法高效且准确捕捉渐近行为,导致收敛缓慢甚至不保证收敛。
- 报告提出通过推出形函数=渐近函数 + DNN乘以“归零型”多项式构造的简易方法,既保证了渐近行为,又将非渐近区域的复杂性由DNN表示,无需复杂的约束层设计,易于实现。
- 实验结果显示无论是只拟合函数值的VML,还是同时拟合函数及其导数的DML,渐近行为的显式加入均能大幅提升拟合精度和训练速度。

---

2. 逐节深度解读



2.1 抽象(ABSTRACT)与引言(Introduction)


  • 关键点

- 强调很多科学和金融函数(如定价函数)在某些区域有已知渐近线性行为,DNN本质上也具备线性渐近能力但训练过程中难以有效捕捉该行为。
- 提出一个简洁的函数表示形式:
$$
f(x) = asymptotic(x) + DNN(x) \times zasymptotic(x)
$$
其中$zasymptotic(x)$是保证DNN部分在渐近区归零的多项式因子,确保在渐近区渐近函数完全主导。
- 该方法易于实现,适用多维且可扩展到多种渐近形式,本文聚焦于一维线性渐近行为。
- 实验使用两类损失函数:VML(仅函数值)和DML(函数值和导数),以此评估方法的有效性。
  • 论证依据

- 传统DNN拟合忽略渐近信息,导致渐近收敛难题。
- 相关文献[AKP20, AKP20a]采用较复杂的带约束的径向层实现零渐近效果,计算成本较高。
- 本文方法结构简洁,不需特殊层或约束,理论与实践层面均有优势。

---

2.2 方法与设计框架(Section 2)


  • 核心逻辑

- 函数域分为渐近域($x\leq LL$或$x\geq UL$)和非渐近域(中间区间$LL - 在渐近域直接用渐近函数表示,
- 在非渐近域用:
$$
f(x) = asymptotic(x) + DNN(x) \times zasymptotic(x)
$$
其中$zasymptotic(x)$为分段多项式,保证边界处平滑且在渐近区归零。
- 选用三次样条插值确保渐近函数$asymptotic(x)$的连续性及可导性。
- 详细定义了线性渐近函数的构造参数,包括斜率LI, LS和截距UI, US,以及边界阈值LL,UL,和多项式因子具体形式:
$$
zasymptotic(x) = \begin{cases}
0, & x \leq LL \\
(x-UL)^2 (x-LL)^2 \times \frac{1}{LL \cdot UL}, & LL < x < UL \\
0, & x \geq UL
\end{cases}
$$
  • 背后假设与推理

- 函数能明确划分渐近域和非渐近域,渐近函数参数可固定或估计。
- 乘以多项式确保DNN部分的局限性(非渐近域表达细节)。
- 导数信息可同时利用(DML),反向传播或手动计算链式求导保持训练高效。
  • 技术细节

- VML与DML两种损失函数形式,均以平方误差为主,DML额外加权导数误差。
- DNN结构为二维隐藏层各20节点,激活函数softplus,Adam优化器,学习率0.05,训练200代。

---

2.3 首个函数逼近实验(Section 3)


  • 实验设计

- 自定义测试函数带线性渐近:$f(x)=asymptotic(x)+x \times zasymptotic(x)$,选定参数$LL=-5, UL=5,LS=50,LI=0,US=50,UI=0$。
- 训练集50000组均匀采样$[-10,10]$,同时提供函数值与导数值样本。
- 对比无渐近处理,渐近参数训练和渐近参数固定三种方法在VML与DML上的表现。
  • 数据与结果总结

- 图1、2展示目标函数及非渐近项细部,清晰分解函数结构和各组件导数。
- 图3-10展示不同配置下训练DNN与真实函数、导数的拟合情况以及残差对比。
- 结果明显显示,含渐近处理(特别是固定渐近参数)方法准确度更高,损失函数下降更快且更稳定。
- DML方法整体误差低于VML,利用导数信息带来显著优势。
- 固定渐近参数表现优于训练渐近参数,说明渐近形状的先验知识提升了模型训练效率和准确度。
  • 附图深读

- Fig.6及Fig.10中残差曲线,非渐近处理残差呈周期性波动且幅度较大,渐近处理残差迅速收敛至较低水平。
- 训练损失曲线对比(对数坐标)强化了渐近处理带来的训练加速效应。

---

2.4 Black-Scholes定价函数逼近(Section 4)


  • 背景

- Black-Scholes公式在定量金融中为基础的期权定价模型,具有明确的渐近线性特征。
- 本文选择单一变量(现价$S(t)$)作为自变量的函数逼近。
- 参数设置:无风险利率$r=0\%$, 波动率$\sigma=0.1$, $K=10$, $t=1$, $T=2$。
- 采用相似方法将渐近线性函数作为基础,结合DNN和多项式因子进行逼近。
  • 实验结果

- 图12展示Black-Scholes函数拆解,渐近与非渐近组件与实际函数及导数一致。
- 图13-21显示VML和DML在无渐近、渐近可训练参数、渐近固定参数三种条件下的训练及测试结果。
- 整体趋势复刻第3部分实验结论,渐近处理组准确率明显更高,拟合残差更小,收敛速度更快。
- DML提升尤为明显,尤其是固定渐近参数的情况下误差最小且波动最低。
- 样本量测试表明尽管增加样本有轻微改善,但渐近处理效果成为准确度提升的主要驱动力。

---

2.5 Black-Scholes回归问题(Section 5)


  • 背景设定

- 目标函数为条件期望$\mathbb{E}[Y|X=x]$,其中$X$为中间时刻股价,$Y$为期权贴现收益样本。
- 通过模拟得到10000条路径样本,结合路径末端价格计算期权贴现支付以训练网络。
- 评估VML与DML架构中有无渐近处理对回归性能的影响。
  • 具体实验与结果

- 图24-30为无渐近、渐近训练参数、渐近固定参数下VML和DML训练后的函数逼近及导数拟合。
- 图27,31,32为对应的残差和损失函数变化,对比直观展现渐近处理明显减少了拟合误差。
- 图33-34展示不同样本规模下的逼近效果,发现渐近处理对样本规模的敏感度较大,尤其在VML中效果更显著。
- 测试的无风险利率版本和非零利率版本的结果一致,表明方法具有鲁棒性。

---

2.6 总结与展望(Section 6)


  • 总结

- 结合已知渐近行为的函数逼近是金融定价等应用的重要策略,但传统DNN难以有效捕捉渐近特性。
- 现有文献多采用复杂约束核函数或层次,计算成本高。
- 本文提出简洁的多项式乘以无约束DNN的形式,保持渐近匹配,训练和预测均高效实现。
- 经过代表性实验验证,方法能够显著提升函数近似和回归的准确度和收敛性。
  • 未来工作

- 扩展至多维、多样渐近形式(如指数型)。
- 应用到参数化机器学习和不同金融推定任务,如XVA估值、强化学习、深度BSDE等。
- 深化理论研究及实际案例开发。

---

3. 图表深度解读



图1 & 2 (页面4)
  • 展示例子函数及其导数的组成。

- 绿色曲线为总函数,蓝色为渐近部分,橙色为非渐近部分。
  • 非渐近项在中间区间振荡,渐近项线性且常数值区间较长,导数图显示渐近和非渐近分明。

- 说明数据生成严格遵循函数定义,有利于训练监督。

图3 - 5 (页4-5) VML不同方案训练结果
  • 图3(无渐近处理):蓝线(DNN输出)与红线(真实函数)整体符合,但偏离明显。残差图明显波动,特别在渐近区。

- 图4(渐近参数可训练):拟合明显改善,残差降低,但存在一定波动。
  • 图5(渐近参数固定):拟合最佳,残差图稳定且幅度最低。

- 侧面印证固定渐近先验信息有利训练。

图6 & 10 (页6-8) 汉根残差及训练损失曲线
  • 左侧残差:无渐近处理残差幅度和波动最大,渐近处理后显著缩小,固定参数最优。

- 右侧残差(导数):同样趋势,表明方法同时提升函数及其导数拟合。
  • 训练损失曲线:固定渐近参数训练远快于其他方法,证明方法优化效率。


图9 & 11 (页7-8) DML不同方案训练结果
  • 同VML表现一致,DML整体误差水平更低,进一步确认使用导数信息的优势。


图12-21 (页9-14) Black-Scholes函数逼近
  • 图12分解黑-舒尔斯定价函数、渐近函数和非渐近组份,导数表现一致。

- 图13-20训练与残差表现趋势与简单函数一致,渐近约束加速收敛,提升精度。
  • 图21综合对比VML/DML不同设置,均显示渐近处理有压倒性优势。


图22-34 (页15-21) 不同样本量下模型表现
  • 样本量从$2^{10}$到$2^{16}$变化,误差略有收敛,尤其渐近处理较明显。

- 选取样本影响有限,渐近约束是核心功臣。

图24-32 (页16-20) Black-Scholes条件期望回归
  • VML和DML回归训练图均显示:

- 无渐近时,拟合波动较大且残差高。
- 渐近训练参数时,拟合改善明显。
- 固定渐近参数时,拟合精准且残差最低。
  • 损失下降曲线趋势清晰,方法适应有噪声的随机样本。


图33-34 (页21) 回归样本量敏感性测试
  • 样本增多,拟合误差降低,尤其渐近处理下更显著。

- DML比VML对样本更不敏感,稳定性更强。

---

4. 估值方法分析



报告关注的是函数逼近与回归问题,没有直接估值分析,但方法本质属于函数逼近技术
  • 无约束DNN建模函数残差部分,乘以多项式因子保证渐近区归零,实现分区域函数分解。

- 回归中的条件期望估计,模型拟合$E(Y|X=x)$,属于非参数回归结构。
  • 通过对VML和DML损失函数的优化,逐步逼近目标函数值和导数,确保估计逼近理论条件期望与其光滑性。

- 参数训练包括渐近函数系数的固定与可训练两种,二者在实际应用中均有优势,固定参数更依赖先验知识。

---

5. 风险因素评估



报告中虽无专门风险章节,但隐含风险与挑战包括:
  • 渐近参数估计风险:若渐近函数参数估计不准确,可能导致全局拟合失真。报告通过现有示例证明估计参数对最终效果影响较小,降低风险。

- 样本质量与规模影响:小样本或噪声大时拟合效果波动增大,尤其VML效果较不稳,DML较为稳健。
  • 模型泛化能力:多维推广尚未展开,因多维渐近行为识别及多项式构造复杂,可能面临更多技术挑战。

- 训练稳定性与超参选择:目前均需人工调节网络层数、节点数、学习率等超参数以取得良好结果。

相应缓解策略主要是:
  • 采取渐近参数固定策略,利用先验知识稳定训练。

- 结合导数信息提升模型鲁棒性和数据效率。
  • 扩大样本规模提高训练效果。


---

6. 审慎视角与细节


  • 偏见与假设

- 报告基于单变量线性渐近示范,复杂多维或非线性渐近需额外验证。
- 假设渐近行为明确且准确,部分实际金融场景中渐近形式或边界阈值不易明确。
  • 潜在矛盾

- 训练渐近参数与固定参数间的表现差异凸显了先验知识重要性,但在无先验时训练参数稳定性未知。
  • 限制

- 实验中偏向清晰定义函数,少量模拟噪声,实际金融市场数据可能更复杂。
- 未涉及模型在极端市场条件或非高斯噪声下的鲁棒性。

整体评估,该报告提出的方法理念清晰,实验严谨,呈现了良好的理论与应用结合,适合作为金融领域基于DNN的渐近行为函数逼近的底层框架参考。

---

7. 结论性综合



本报告提出并系统验证了一种利用多项式修正结合无约束深度神经网络构造近似函数的方法,确保了已知渐近行为的精确匹配。具体贡献及发现总结如下:
  • 理论与方法创新

- 将函数表达拆分为渐近函数加多项式约束的DNN部分,有效保证函数在渐近域的行为正确。
- 设计了简单易实现的多项式形式$zasymptotic(x)$,保证了平滑连接。
- 适用于多维、多种渐近形式的拓展,本文聚焦一维线性渐近行为做了详尽示范。
  • 实验验证

- 在自定义函数逼近、Black-Scholes期权定价函数逼近以及基于模拟的Black-Scholes回归问题中均获得良好效果。
- 对比传统VML和DML两种训练目标,DML利用导数信息有效提升拟合精度和收敛速度。
- 在无渐近处理、渐近参数训练及渐近参数固定三种方式中,以固定渐近参数获得最优性能。
  • 图表洞察

- 各组训练和测试曲线及残差图深入展示了引入渐近行为带来的误差显著降低与训练损失快速收敛的优势。
- 样本规模变化实验揭示方法对样本规模的适度敏感性,梯度信息的结合降低了对样本规模的依赖。
  • 实际应用潜力

- 该方法对于定量金融领域复杂定价及风险管理函数拟合尤为适用。
- 兼容回归估计及条件期望估计,适合进一步扩展至标的资产多维因素的定价和风险度量。

综上所述,报告通过理论创新与实验验证,清晰展示了结合已知渐近行为与深度神经网络训练的强大潜力和实用价值,提供了金融机器学习领域函数逼近和回归问题解决方案的有力工具。

[page::0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22]

报告