使用径向基函数神经网络对欠采样干涉图进行相位解包
date
Apr 22, 2025
slug
Phaseunwrappingofundersampled
status
Published
tags
神经网络
summary
type
Post
引言
干涉测量术在测量一些难以直接测量的量方面取得了成功。然而,绝对相位(或“真实相位”)无法直接测量。相反,只能从干涉图中计算出其包裹值 ,该值被限制在 - 到 之间。由于包裹相位 无法直接使用,因此需要进行解包,这一任务在存在噪声的情况下尤其具有挑战性。进一步使问题复杂化的是,由于强烈的信号截止(通常在磁共振成像中看到)或欠采样,可能会丢失大量的相位数据,正如在高密度等离子体干涉测量中所见。此外,数据集变得极其庞大,给用于相位解包的串行算法带来了压力(例如功能磁共振成像、合成孔径雷达干涉测量、形状重建或条纹投影轮廓测量)。无论问题是什么,相位解包程序都需要找到一个近似相位,使得 。真实相位必须从由下式给出的强度 中提取:
注意,在理想情况下,当 且 时,我们实际上测量的是包裹相位 ,其中 是包裹算子,定义为
在本工作中,我们使用滤波傅里叶变换将由式 (1) 给出的强度数据解调为包裹相位。当相位 表现良好(即连续、无噪声、过采样)时,相位解包是直接的。然而,当相位受到噪声干扰或欠采样(即混叠)时,解包变得困难,并且已经开发出各种方法来克服这一问题。早期方法使用了分支切割法、最小二乘算法或多项式相位近似。然而,这些方法对噪声的反应也不好,这促使了能够处理高噪声水平的算法的发展,这些算法使用卡尔曼滤波器。机器学习算法同样取得了成功,使用人工神经网络,然后是深度学习,最后是卷积网络。与以往技术不同的是,以往技术倾向于使用数据的自然布局网格来执行解包,而机器学习通常不依赖于物理数据结构来进行解包。与其他基于相位的测量相比,高能量密度等离子体干涉测量有其独特的一系列挑战。通常,由于大多数干涉仪使用极其明亮的激光束(>100MW/cm²),外部噪声水平相对较低。然而,衍射可能会产生降低光束质量的伪影。此外,这些等离子体的能量密度在 1kJ/cm³ 的量级,它们产生的连续光会导致干涉图中出现大面积强度斑块。高能量密度等离子体还可以被复杂的结构所包围,这些结构会阻挡部分光束并创造出无干涉条纹的区域。这些结构的形状通常很复杂,需要从输入数据中移除。最后,由于电子密度梯度相对较大,干涉测量数据通常欠采样,从而创造出干涉图案不可直接使用的区域。为了应对这些实际考虑,我们开发了一种并行神经网络算法,能够按照分阶段的监督学习来解包相位数据。通过在连续区域上聚集神经元来实现并行化,其中重叠的神经元,称为“幽灵神经元”,被用来同步不同的网络。与以往使用 Levenberg-Marquardt 算法或空间导数的方法不同,我们提出的径向基函数神经网络(RBFNN)用于分析由欠采样区域引起的干涉图。
训练分阶段神经网络
前置说明
一个检测混叠的条件: 超分辨率成像使用数值或物理技术,可以有效地提高图像的分辨率。对于干涉测量数据,当相位在两个像素之间包裹超过一次时,就需要这种技术,这种现象称为混叠。混叠可能会表现为一系列快速连续的跳跃,在噪声水平较低时相对容易检测;但也可能完全不明显。例如,一个相位变化为 和 ,其中 ,这将产生看似恒定的包裹相位 和 。作为一个下界,我们可以看到当时,混叠存在,那么 在 到 之间会有跳跃。虽然这只是一种必要条件,但当 连续时,它就变成了充分条件,允许我们检测数据中的混叠。
周期函数的一个关键性质: 当任何相位 被离散化时,我们可以定义其左导数为 。利用式 (2),我们得到 ,对于任意 周期函数 。因此,。如果使用线性外推来定义左边界处的左导数,即 ,那么这个结果在整个域上都是有效的。对于右导数,定义为 ,我们使用相同的推理得到 。如果现在对右边界处的右导数使用线性外推,即 ,那么这个结果在整个域上也是有效的。这种性质不适用于中心导数 ,因为 只有在 为偶数时才等于,但如果它是奇数则不等于。最终,我们发现
这也就是众所周知的 Itoh 条件。同样地,利用式 (3) 和 (4),我们可以很容易地证明
以及
对“真实相位”的一个限制: 当使用 RBFNN 解包相位时,会出现一个重要的限制。由于输出层是径向基函数的和,这些函数是平滑的,因此输出也是平滑的。所以,RBFNN 只能解包平滑的真实相位。然而,当存在少量不连续性时,可以通过掩模将它们相对容易地隐藏起来。对于由高能量密度等离子体生成的干涉图,这一条件通常不具有限制性,并且为成功训练带来了重要的组成部分。例如,如果我们处理的相位 \phi_{GT} 是两次连续的且没有混叠,即 ,那么式 (5) 给出
因此,是连续的,因为是连续的,无论 中存在多少相位跳跃。由于我们的目标是处理混叠相位,我们可以使用更不严格的假设 ,那么式 (6) 给出
此外,如果 在整个域上连续,那么 也处处连续。在本文的其余部分,我们将采用这两个假设。
输入层的构建
虽然 存在跳跃,但我们已经证明了如果 是两次连续的,那么 和 是连续的。然而,我们不能使用基于梯度的优化来匹配 RBFNN 输出 和 ,因为将 转换为 的包裹算子 是不可微的。尽管在机器学习中已经成功使用了无梯度的方法,但只要有可用的梯度方法,总是优先选择梯度方法。式 (3) 和 (4) 表明,我们可以使用可微的正弦和余弦函数来代替 ,在需要可微性的地方使用。只要 是两次连续的,这些函数就可以去除 和 \ 在 的每个相位跳跃处的虚假不连续性。
实现超分辨率的输入层: 现在我们可以构建一个输入层 ,其中所有数据都是连续的。在干涉图的每个位置,我们得到:
现在,我们可以使用以下方程组比较输入层和 RBFNN 输出 :
注意,尽管 和 仍然使用包裹算子,但这个算子在用于比较输入层和 RBFNN 输出的方程中并不存在,因为我们限制了二阶导数在 和 之间。由于包裹 对 RBFNN 输出没有影响,它已经完全从 和 o_{12} 中消失,我们现在可以对它们求导。然而,这个算子仍然需要出现在 i_{11} 和 i_{12} 的左边,以去除 中的相位跳跃。同样要注意的是,我们已经省略了输出的 RBFNN 的一阶导数的下标 L 和 R ,因为它是解析函数的和,其导数可以精确计算。
不需要超分辨率时的输入层: 当不需要超分辨率,即 时,训练可以大大简化。在这种情况下,我们可以用式 (10) 替换式 (8),用式 (11) 替换式 (9):
以及
激活函数
在本文中,RBFNN 将使用紧凑的 Wendland 函数作为激活函数。这种函数可以从 开始轻松构造,并使用 来增加函数的平滑度。这里 。上面的算子 I 定义为 ,对于 。Wendland 函数是 类的,并且可以解析计算。它们在 中产生严格正定矩阵,其中 且 k = 2q 。在本文的其余部分,将省略 的下标。我们使用的 Wendland 函数 由下式给出:
这是通过取 p = 3 和 q = 2 得到的。
我们二维数据集中的每个神经元 都使用这种径向基函数进行激活。在本文中,我们仅使用上述 Wendland 函数 。
输出层
输出层 表示为以每个神经元为中心的径向基函数 的和,其中 。RBFNN 的输出层是连续的,定义为
其中 和 分别是第 n 个神经元沿 x 和 y 方向的激活距离的倒数。当使用激活距离的倒数时,雅可比矩阵的解析表达式大大简化。正如稍后在文中讨论的那样,我们需要匹配五个约束条件以使神经网络具有超分辨率,即 、、、 和 。为了匹配这五个约束条件,我们需要在权重中注入三个自由度,如下所示:
加上 和 ,我们现在每个神经元有五个自由度。注意,权重 现在在 和 方向上是局部线性的。
目标函数的定义
具有超分辨率的目标函数: 现在我们可以定义目标函数 F(e) ,训练过程使用它来最小化所有神经元 的误差向量
误差 是第 个输入层值在位置 处的值 与同一位置的第 个输出层值 之间的差。由于训练试图匹配左右导数,我们预计即使在完全收敛后,总误差仍然会很高,因为训练将无法同时匹配左右导数。因此,我们可以定义误差 来估计我们的网络何时完全训练:
其中 ,且
不需要超分辨率时的目标函数: 对于不需要超分辨率的干涉图,目标函数定义为 F(e) ,用于最小化所有神经元 的误差向量
同样,我们可以定义误差 \hat{e} 来更好地评估实际收敛误差:
其中 ,且
正则化
简单的贝叶斯正则化,或更复杂的变体,如使用马尔可夫链蒙特卡洛,已被提出用于避免过拟合噪声数据,并且在噪声存在时是必要的。当需要超分辨率时,我们使用
我们发现 应该在第一和第二训练阶段为 1,因为噪声对包裹相位的二阶导数影响最大。通常在训练的最后阶段不需要正则化,我们可以使用 。当不需要超分辨率时,我们使用
多阶段训练
分阶段的 Levenberg-Marquardt 算法: 神经网络训练的第一步是尝试将网络输出与测量相位的二阶导数匹配,仅使用输入 。一旦网络完全训练并且输出层 的二阶导数与 的二阶导数之间的误差很小,我们就重新开始训练过程,但这次使用输入 来匹配二阶导数和一阶导数的正弦/余弦值。我们使用三角函数来隐藏一阶导数的不连续性,因为三角函数是可微的,并且允许解析计算雅可比矩阵。一旦网络训练完成(即 最小化),输出层应该匹配 的一阶中心导数(因为训练过程匹配了左右导数,最终得到中心导数 以及二阶导数。我们通过使用所有输入 ,包括现在 的正弦和余弦,来完成网络的训练,这次是为了隐藏相位跳跃,而不是它们的一阶导数中的不连续性。一旦误差 最小化,输出层现在匹配 本身以及 的一阶和二阶导数。上述最小化过程将找到基函数权重 对于所有神经元 的值,使用基于梯度的算法。在这里,我们使用了 Levenberg-Marquardt 算法 (LMA),它使用雅可比矩阵 J 在最小二乘意义上最小化误差 e 。解决方案通过连续迭代找到,推进向量 使得 其中

寻找 的过程完全遵循标准的 LMA,我们在这里只详细描述三个训练阶段:
- 匹配 的二阶导数: 误差向量定义为 。我们仅在这一阶段训练神经网络以优化径向基函数权重 ,使用 。我们发现早期优化激活距离并不能真正提高这一阶段的输出质量。这一阶段的收敛质量对于超分辨率至关重要。这一阶段在图 1 中以蓝色显示。
- 匹配 的一阶和二阶导数: 现在误差向量重新定义为 。同样,在这里我们训练神经网络以优化径向基函数权重 ,使用 。这一阶段将超分辨率信息传播到相位的一阶导数。这一阶段在图 1 中以红色显示。
- 匹配 以及 的一阶和二阶导数: 误差向量定义为 。我们现在优化神经网络以找到基函数权重 和逆激活距离,因此 。这一阶段以单一的扫描全局解包相位。这一阶段在图 1 中以绿色显示。
当不需要超分辨率时,训练将仅尝试匹配一阶左右导数以及包裹相位,仅使用两个训练阶段:
- 匹配 的一阶导数: 首先定义误差向量为 。同样,在这里我们训练神经网络以优化径向基函数权重 ,使用 。这一阶段将超分辨率信息传播到相位的一阶导数。这一阶段在图 2 中以蓝色显示。
- 匹配 以及 的一阶导数: 误差向量定义为 。我们现在优化神经网络以找到实际的基函数权重 w_n 和激活距离,因此 。这一阶段以单一的扫描全局解包相位。这一阶段在图 2 中以红色显示。
计算雅可比矩阵
具有超分辨率的雅可比矩阵计算: 训练的最后阶段使用的雅可比矩阵 J 为
其中
这里,矩阵 对应于在第 p 个神经元处计算的输出层和输入层之间的误差 关于第 q 个神经元的权重 的偏导数。由于输入层不依赖于任何神经元权重,因此输入值 到 已经从偏导数中省略,只保留了输出值 到 。为了形成第一和第二阶段所需的较小雅可比矩阵,我们只需从完整的矩阵 中去掉相应的项,得到
第一阶段:
第二阶段:
所有在 到 o_{12n} 中使用的函数都是解析的并且可以微分,因为通过条件 从 中去掉了包裹算子 W 。现在我们可以计算雅可比矩阵元素,对式 (9) 中的每一项关于 进行偏导数计算
式 (21) 中使用的偏导数的值在方法部分列出。
不需要超分辨率时的雅可比矩阵计算: 当去掉超分辨率时,图 2 中的雅可比矩阵 J 可以以类似的方式计算。这里的误差 为
第一阶段:
第二阶段:
掩模和聚类策略
在突出主要程序后,我们现在可以关注网络的初始化,查看掩模、神经元聚类和感受器连接。掩模应在训练开始之前选择,并在整个训练过程中保持不变。大多数干涉测量数据都带有噪声、不连续性,以及应该从干涉图中丢弃的区域。掩模应该只在输入层中保留可以最小化误差传播的可解包数据。掩模应该稍微覆盖被丢弃的数据,以允许在掩模边界处正确计算相位导数,而不是使用外推。此外,掩模不应将数据分割成单独的区域,也不应有狭窄的区域。最佳感受器数量已集成到优化程序中,不需要事先计算。由于我们使用的是紧凑的径向基函数,因此任何输入 p ,如果 ,则不会连接到神经元 q 。训练过程通过选择和 的任意值来初始化,这些值应该仔细选择。在相位变化迅速的区域,激活距离的倒数应该较大。神经网络通常使用聚类方法(如 k-均值)来提高训练的质量和速度。然而,由于在获得超分辨率之前,数据模式在先验上是难以捉摸的,而超分辨率只有在后验中才能获得,因此数据中的形状,而不是输入层中的数据,才真正塑造了神经元聚类。这大大简化了聚类过程,现在简化为基于最近邻连接的简单图划分。
并行训练
对于中等大小的数据集,当雅可比矩阵 J 的大小即使稀疏,也可能难以在当今的超级计算机上处理时,并行化变得有必要。这尤其适用于在测量高能量密度等离子体的电子密度时获得的高分辨率二维干涉图。上面描述的基本聚类策略可以用来将主网络分割成 K 个不重叠的网络。正如并行代码经常遇到的情况一样,我们引入了幽灵神经元,这些神经元是被两个网络共享的重复神经元。由于每个网络的训练现在是独立进行的,因此需要一个同步步骤,以确保所有输出层能够无缝匹配。我们使用单最近邻搜索来定义每个聚类边界处的单层幽灵神经元,允许网络之间有一些重叠,以便在同步后输出层能够无缝匹配。然而,同步过程需要保留很少的这些幽灵神经元,以“缝合”这些域。
输出层:同步使用一个常数相位 ,将其添加到网络 的输出层中,如下所示
其中神经元 是仅属于第 个网络的神经元,而神经元 是第 k 个网络的幽灵神经元,由第 k 个网络的邻居拥有。式 (22) 的最后两项是非同步的 RBFNN 输出,使用式 (13) 获得。由于同步只关注 ,因此网络参数 在这里保持不变,式 (22) 的最后两项在整个同步过程中只需要计算一次。
输入层:对于由网络 k 共享但由标记为 的网络拥有的任何幽灵神经元 ,当分阶段训练结束时,值 可能最初与值 不同。然而,我们可以通过简单地定义第 k 个网络的同步输入层来同步不同网络的输出层
以及对应的输出值
这里没有必要使用正弦或余弦这样的包裹函数,因为我们处理的是每个单独网络都已成功解包但整个域仍未同步的相位。现在,要最小化的误差由下式给出
误差 E_{qk} 是式 (23) 中在第 k 个聚类内的位置 处计算的输入层值 与同一位置的输出层值 之间的平方差。
同步 Levenberg-Marquardt 算法: 我们再次使用 Levenberg-Marquardt 算法来最小化误差 E ,在最小二乘意义上使用同步雅可比矩阵
在这里,我们不能从雅可比矩阵中去掉输入值 ,因为第 个网络的输入层可能依赖于一个相位偏差 ,当第 k 个网络中的幽灵神经元由网络 拥有时。我们现在使用标准的 Levenberg-Marquardt 算法来解决这个问题。在同步程序之后,可以使用最终的并行第三阶段训练来消除任何残余误差,同时保持所有 不变。
分阶段神经网络的准确性评估
使用合成相位的准确性
本节介绍了分阶段神经网络在处理具有强局部混叠的不同类型合成相位变化时的性能。首先测试了平滑变化的相位,然后关注随机变化的相位。相位的非单调性质在存在混叠的情况下,尤其是在存在碎片化掩模和高噪声水平时,为恢复真实相位 带来了新的挑战。
准单调相位: 准单调相位由下式给出

图 3-a 显示了初始的真实相位,图 3-b 显示了具有强混叠的数字化包裹相位,所有单位均为弧度。神经网络的输出层几乎与 完全相同。然而,只有在移除存在于两个相位之间的恒定偏差之后,才能获得如此高的精度。这种偏差并非误差。相反,它来自于两个相位之间缺乏绝对参考。由于这种偏差无法从图 3-b 中的包裹相位确定,我们计算了这个偏差,使得网络输出的平均值等于真实相位的平均值,恢复的相位如图 3-c 所示。实际上,当我们进行实际的相位测量时,我们无法获得这些信息。但这种限制是物理上的,而不是由这里提出的方法所施加的。对于 ,RBFNN 能够从数字化相位中恢复真实相位,误差远低于 。随着 值的增大,误差迅速变差。经过这种修正后,图 3-d 显示 RBFNN 与初始相位之间的最大误差小于 0.1%。

具有掩模数据的随机相位: 当相位在整个域内随机变化时,神经网络无法利用任何趋势来恢复真实相位 。如果引入混叠,那么手动尝试恢复的任务变得非常困难。尽管图 4-a 显示 的变化并不剧烈,但图 4-b 中的数字化包裹相位表明,随机变化的相位实际上相当难以解包。然而,神经网络的输出如图 4-c 所示,与 匹配良好,误差低于 0.1%,如图 4-d 所示。与准单调相位相比,误差分布更加均匀,主要由全局(而不是局部)混叠引起。与未掩模的情况(未显示)相比,整体误差几乎没有变化。

图 5-a 显示混叠足够大,导致包裹相位平滑增加,而真实相位实际上却在减小。这种情况发生在真实相位的一阶导数,如图 5-b 所示,小于 的区域,导致 发生包裹。需要注意的是,这种包裹并不是问题,因为我们使用正弦和余弦函数对神经网络进行一阶导数的训练,这些函数在相位跳跃处连续变化。由于神经网络是基于包含相位的一阶和二阶导数的数据集进行训练的,我们可以对神经网络的输出进行求导,以估计相位的导数。图 5-b 显示与真实相位导数有很好的一致性。我们清楚地看到,神经网络无法同时匹配左右一阶导数,因为它们的值不同。相反,神经网络匹配的是平均值,即中心一阶导数。正如式 (8) 所示,神经网络使用 的左右导数来计算输出层的权重。因此, 的导数,也与 的导数匹配,位于 的左右导数之间,正如预期的那样(见图 5-b)。因此,使用式 (18) 中的误差 比使用 e 更有意义。根据假设 和 是连续的,我们看到 没有跳跃,因为 。图 5 清楚地展示了神经网络如何恢复真实相位 ,而无需显式地解包它。神经网络的输出及其导数的构造是连续的,因为它们是连续径向基函数的和。在第一阶段结束时,神经网络的二阶导数直接与包裹相位的二阶导数匹配,后者是连续的,因为 且 是连续的。在第一阶段结束时,神经网络的输出是连续的,因为其构造是连续的。在第二阶段结束时,网络输出匹配包裹相位的一阶导数,通过正弦和余弦函数实现。这种方法隐藏了包裹算子 W 在存在混叠时创建的相位跳跃。同样,在第二阶段结束时,神经网络的输出也是连续的,因为它是由连续函数的和构成的。在第三阶段,网络被训练以匹配包裹相位值,通过正弦和余弦函数实现,其输出再次保持连续。因此,训练过程迫使神经网络的输出匹配包裹相位的正弦和余弦,而用于构建网络的径向基函数迫使输出连续,从而去除包裹相位的跳跃。

具有噪声的随机相位: 当不存在混叠时,可以使用专门针对干涉图的标准滤波技术来去除包裹相位中的噪声,例如条纹平滑方法、局部条纹频率估计、窗傅里叶滤波或 Gabor 滤波局部频率。这些技术中的任何一种都可以在将数据输入神经网络之前应用于包裹相位。当对包裹相位进行滤波时,我们可以通过计算相位残差来检测噪声数据的位置,并屏蔽那些导致非保守结果的残差位置,前提是真实相位是保守的(例如,地形数据的干涉图)。滤波也可以在解包过程中进行,但不能应用于这里,因为滤波过程严重依赖于解包方法。然而,当存在混叠时,直接滤波变得更加困难。首先,残差方法不能可靠地使用。其次,混叠可能表现得像噪声,很难区分多次包裹的好数据和噪声数据。为了查看噪声对神经网络性能的影响,对于强混叠相位,我们在包裹相位中添加了噪声 N(x,y) \in [-1,1] ,如下所示
其中 是一个控制最大噪声水平的常数。图 6 显示神经网络能够恢复真实相位 ,误差与包裹相位中添加的噪声水平相当。当 时,神经网络表现良好,但当 时,误差倾向于达到 。

对于未掩模的数据,也发现了类似的结果。因此,如果没有特定的噪声滤波策略应用于混叠包裹相位,我们发现神经网络对于低于包裹相位 10% 的噪声水平仍然可靠。较大的噪声水平将需要事先进行一些滤波。图 7 显示了正则化如何避免网络输出的过拟合,限制了噪声对解包相位的影响。
使用干涉仪数据的分阶段神经网络训练的准确性
在一系列测试确定了 RBFNN 的准确性并如方法部分所述之后,我们现在使用提出的分阶段训练对由高能量密度等离子体与绿色激光束干涉产生的实际干涉图进行处理。相位偏移对应于等离子体的线平均电子密度。通过使用多针径向箔配置连接到脉冲功率驱动器的电极来产生等离子体。在这种情况下,我们不知道真实相位,我们通过查看测量的包裹相位与神经网络输出层之间的差异来评估解包程序的质量。
最终误差 ,单位为 。它是相对于包裹相位 的归一化误差,其范围为 。干涉图如图 8-a 所示。测量基于剪切干涉仪,而不是马赫-曾德尔干涉仪。前者使用单参考路径,对机械振动不敏感,这极大地影响后者的条纹图案。因此,可以使用无等离子体的相位数据作为参考相位,并从存在等离子体时的测量中减去它。相位差与线平均电子密度成正比。从图 8-a 中的感兴趣区域开始,傅里叶变换得到的频谱关于原点对称,因为相位数据是实值的。我们使用单个方形滤波器来隔离主导模式,但排除原点,直流分量位于此处。逆傅里叶变换现在是复值的,因为滤波器破坏了关于原点的对称性。每个复值的相位对应于干涉仪测量的包裹相位,如图 8-b 所示。然后数据被下采样 6×6,以压缩干涉图(如图 8-c 所示)。尽管这种压缩对于证明 RBFNN 的有效性并非必要,但它创建了一个具有强混叠的区域(图 8-c 的放大部分)。使用掩模丢弃了条纹无法清晰解析的区域。然后我们使用超分辨率训练神经网络。

网络的输出如图 8-d 所示。等离子体射流的电子密度引起的突起在图中清晰可见。图 8-e 中的误差在 10% 左右,与干涉仪记录的噪声水平相当,如图 8-b 的插图中清晰可见。我们在图中看到了两种大于 10% 的误差。随机分布在图中的误差是由噪声引起的,当包裹相位接近 -\pi 或 \pi 时,由于正则化限制了网络输出的噪声影响,这种噪声在输出中不存在。第二种类型的误差更接近真正的误差,因为 RBFNN 在解包相位方面遇到了一些困难(图 8-e 中放大插图所示的区域)。这种误差来自于 6×6 的压缩比,它略微超出了 RBFNN 的能力范围。然而,如果使用 5×5 的压缩比,这种误差可以消失。重要的是要注意,这种误差没有传播到相邻的神经元。考虑到图 8-e 中的低平均误差水平和输出的平滑性,RBFNN 成功地解包了相位。包裹输出如图 8-f 所示,可以与图 8-c 中的测量相位进行比较。如果没有超分辨率,RBFNN 就无法解包相位。由于剪切干涉仪在机械上是稳定的,我们可以通过从图 8-d 中减去背景相位来准确测量射流的密度。

按照完全相同的程序,我们可以处理没有等离子体的同一区域的干涉图。在这种情况下,条纹图案相对周期性,如图 9-a 所示。我们使用与等离子体干涉图相同的傅里叶滤波器来获得包裹背景相位。由于干涉图的图案清晰解析,我们使用没有超分辨率的 RBFNN 进行训练,得到的输出如图 9-b 所示。有趣的是,图 9-c 中包裹输出层和数据之间的误差与等离子体存在时的误差相似。这表明误差主要是由噪声引起的。一旦从带有等离子体的相位中减去背景相位,我们就得到了图 10-a 中的射流的线平均密度。尽管在 RBFNN 输出导数中存在噪声,但其来源已经在我们早期的傅里叶变换中被滤除。我们认为 RBFNN 输出导数中看到的密度波动并不携带任何关于密度本身的物理信息。因此,应该使用对显著噪声水平稳健的阿贝尔反演技术(例如,参考文献 [84])来计算体积电子密度。我们可以注意到由于在最后阶段优化激活距离而导致的域之间的平滑度差异。
讨论
本文提出的径向基函数神经网络(RBFNN)结合了以下功能,能够处理混叠的干涉图:
- 散布的神经元放置,允许相对容易地丢弃携带高保真信息的数据,同时保留数据;
- 使用掩模隐藏外部几何形状,这些形状通常存在于相位测量中;
- 一种正则化方案,可以非常有效地过滤噪声。
RBFNN 可以通过将干涉图的测量结果与 RBFNN 的输出通过正弦和余弦函数进行比较来解包相位。这些函数隐藏了训练集中包裹相位的任何不连续性。考虑到 RBFNN 输出的构造是连续的,一旦输入层和输出层之间的误差最小化,神经网络就会产生一个完全解包的相位。由于网络被训练以匹配相位的一阶和二阶导数,因此可以直接从 RBFNN 输出中计算出高保真度的梯度,因为正则化限制了噪声的影响。网络结构允许采用聚类策略,其中并行化很容易实现。它将密集矩阵转换为块对角矩阵,大大加快了训练速度。本工作没有尝试在预学习阶段进行任何滤波,除了傅里叶滤波,这主要用于获得复振幅场,从而可以轻松计算包裹相位。然而,可以将滤波技术与提出的算法一起使用。尽管正则化确实通过限制过拟合来过滤数据,但不应将其视为非常有效的滤波器。首先,正则化参数是全局的。其次,正则化是静态的,我们的训练中没有机制可以对其进行优化。尽管 RBFNN 在这里比更基本的相位解包算法(例如参考文献 [17])需要更多的内存和计算能力,但错误相对容易检测并且保持局部性,如图 8-e 所示。结合提出的并行化策略,可以大大减少解包时间。尽管本文中训练过程有和没有超分辨率是明确分开的,但可以通过相位导数平均值来找到需要超分辨率的区域(即 )和不需要的区域(即 ),并且可以无缝地在每个方法中局部地调整雅可比矩阵。然而,这些标准并不是绝对的,应该尽可能多地使用超分辨率。将该方法扩展到三维干涉图也是很容易的,如方法部分所讨论的。此时,需要大量使用块对角化,以生成足够稀疏的雅可比矩阵,从而实现合理的训练时间。
方法
计算雅可比矩阵中使用的偏导数
本节列出了用于计算本文中雅可比矩阵的解析函数。输出层表示为 ,其中 。进一步地, 和 。使用 \varepsilon 来避免数值上出现除以零的情况,这在计算中可能会发生,但仅在数值上。在径向基函数中,当 时, 这些有问题的项会乘以 或 ,而 和 。
关于 RBFNN 参数的偏导数:
沿 x 方向的偏导数:
沿 y 方向的偏导数:
关于空间维度的说明
神经网络可以扩展到三维相位解包,只需添加沿第三维度的导数:
输出层表示为 ,其中 ,权重 。使用式 (29) 中的公式,得到对应的输出值。通过扩展此过程,可以轻松构建具有更高维度的神经网络。