利用基于抗差垂直向方差分量估计的GPS-InSAR数据融合方法反演三维形变场
吴学雨1
1. 南京工业大学测绘科学与技术学院, 江苏 南京 211816;
2. 浙江省测绘科学技术研究院, 浙江 杭州 310012
基金项目:国家自然科学青年基金(42004002);江苏省自然科学基金青年基金(BK20180720)
关键词:方差分量估计 抗差估计 三维形变场 GPS-InSAR数据融合
引文格式:吴学雨, 李明峰, 董思学, 等. 利用基于抗差垂直向方差分量估计的GPS-InSAR数据融合方法反演三维形变场[J]. 测绘通 ,2021(12):38-43. DOI:
10.13474/j.cnki.11-2246.2021.369.
摘要
正文
InSAR技术是近些年发展起来的一种通过提取影像相位信息进行高精度对地测量的主动微波成像技术,具有高精度、大范围等优点,在地表沉降测量方面应用广泛[1-2]。然而,受限于InSAR技术自身独特的侧视雷达扫描方式,InSAR监测结果为真实地表形变在侧视方向(line of sight, LOS)的一维方向投影形变值,易造成部分地面形变信息缺失。针对此问题,众学者提出了利用高时间分辨率且高精度GPS数据与高空间分辨率InSAR数据联合反演三维形变场的解决办法[3-9]。GPS-InSAR数据融合能够实现GPS高时间分辨率与InSAR数据高空间分辨率的有效统一,而将两类数据精确定权并实现有效融合是研究的关键[10-14]。
1 GPS-InSAR数据融合反演三维形变场基本模型
SAR卫星传感器为侧视成像雷达,获取的数据为雷达侧视方向一维投影。根据SAR影像的成像几何,将InSAR-LOS向分别投影到东西(E)、南北(N)、垂直(U)三维形变方向,建立LOS与三维方向转换关系模型。当观察点同时存在升、降轨数据,以及GPS数据时,将多源数据纳入统一平差模型,可得GPS与InSAR反演三维形变场的基本融合模型为
(1)
式中,LInSARA、LInSARD分别为升、降轨InSAR-LOS向观测值;LGPSE、LGPSN、LGPSU为GPS数据东西、南北、垂直3个方向的观测值;系数矩阵为升、降轨数据的三维投影矢量;DE、DN、DU为三维方向形变值。
时序InSAR在同一观测点存在多个连续时间序列观测值,假设观测点的形变为均匀形变,并存在相同时间间隔GPS数据,通过引入时间参数,将多个观测值纳入模型,建立GPS-InSAR数据三维形变速率场融合模型,可表示为
(2)
(3)
(4)
其中,式(3)为观测点不同时间段的n个时序InSAR-LOS向观测值及对应时间段的3n个GPS三维方向观测值;式(4)为投影矢量及时间参数组成的系数矩阵;t1,t2, …, tn为InSAR与GPS数据的观测时间间隔;X=[vEvNvU]T为E方向、N方向、U方向三维形变速率。
2 基于抗差垂直向方差分量估计的GPS-InSAR数据融合模型
利用GPS-InSAR数据融合模型解算三维形变速率场时,需确定随机模型以合理分配权重。根据Helmert方差分量估计思想,对观测资料最优化分类,可将观测值分为InSAR-LOS向、GPS垂直方向及GPS水平方向共3组观测值, 依次为L1、L2、L3,因此分组后的平差模型为
(5)
其中
InSAR数据在水平方向形变场精度低,而且三维形变场中的水平形变场主要由高精度的GPS水平观测值贡献,因此为提高模型解算效率,对InSAR-LOS向数据及GPS垂直向插值数据两组观测值进行Helmert方差分量估计。
基于最小二乘法则,给定前两组观测量单位权阵P=diag(P1,P2),对最优分组的L1、L2进行平差处理,可得
(6)
其中
根据单位权中误差公式,得出各组观测值的残差平方和及方差分量之间的函数关系
(7)
其中
为前两组观测量的方差分量;Wθ=[V1TP1V1V2TP2V2]T为观测值残差平方和。
顾及InSAR-LOS观测值存在粗差,方差分量估计只能调整不同类别观测值间的权比,无法有效抵御InSAR技术复杂的数据获取及处理流程中混入的粗差,因此在求解InSAR-LOS观测值权阵时加入等价权函数,以削减包含粗差的数据权重,提高GPS-InSAR融合模型解算精度。利用抗差估计原理建立目标函数估计准则
(8)
式中,ρ(Vi)为一个连续的凸函数;Pi、Vi分别为观测值的权值和残差值。
由平差模型得
(9)
式中,Pi为Li等价权阵;Pi=Piwi。
选用IGGⅢ方案作为等价权函数
(10)
式中,|vi|=|vi/σi|为标准残差;k0、k1为常数,一般k0=1.0~2.5,k1=3.0~5.0。
将P1替换成等价权阵,对InSAR-LOS观测数据进行抗差处理(选权迭代),得到以下函数关系式
(11)
式中,P1为InSAR-LOS向观测值的等价权阵。
通过初始权阵预平差,结合IGGⅢ函数对InSAR-LOS观测值进行选权迭代,计算新的权阵
(12)
将计算的新权阵估值代入式(6)中,计算新的最小二乘估值
。重复迭代,直至
,此时得到的
即为L1、L2经过抗差方差分量估计处理的最优权阵,
为最优单位权方差。利用Kriging插值获得GPS水平观测值先验方差
,确定水平方向权重
(13)
通过式(11)即可求得经过抗差处理后的单位权方差,再利用统一的单位权方差,确定3类观测值的权阵,最终代入函数模型法方程求解精确的三维形变场。
3 模拟算例分析
基于Matlab软件模拟出的100×100 格点的三维方向形变值进行模拟算例试验,即
(14)
式中,Vx0、Vy0为水平方向的形变初始速率;a、b为常数;w为调节形变场的尺度参数;t为形变发生的时间间隔。该模型顾及水平形变场存在恒定应力拉伸影响,在水平方向设置了初始速率值,水平方向的形变速率随着坐标偏移而匀速变化;垂直方向模拟了随时间变化的线性形变及受地下水抽取等因素影响的周期性形变。
为减少周期性形变干扰,令t1、t2、t3、t4、t5分别等于1、2、3、4、5,模拟间隔整年度的5年内三维形变场。利用投影矢量参数,将原始三维形变场模拟值投影到单一InSAR-LOS方向,模拟10组InSAR数据,包括5组升轨数据、5组降轨数据。该研究范围的升、降轨投影矢量参照Sentinel-1A卫星参数,分别设为[-0.543 6, -0.123 2, 0.830 2]及[0.547 7, -0.124 1, 0.827 4]。结合实际,对5组升、降轨InSAR-LOS模拟数据,依次加入N(0, 0.32)~N(0, 0.72)的高斯噪声。继续加入1 cm系统误差模拟InSAR数据系统性偏差,以及随机加入绝对值为5 cm的粗差。同时在100×100栅格范围随机选出100个点作为GPS观测点,利用时间序列模拟5组GPS观测值,并依次加入N(0, 0.22)~N(0, 0.62)的高斯噪声作为水平方向模拟值随机误差,以及在垂直方向依次加入N(0, 0.32)~N(0, 0.72)的高斯噪声。
为有效验证算法可行性,设计了4种试验方案进行对比分析,具体方案如下:
方案1:基于等权最小二乘的GPS-InSAR数据融合模型(OLS);
方案2:基于Helmert方差分量估计的GPS-InSAR数据融合模型(H);
方案3:基于垂直向方差分量估计的GPS-InSAR数据融合模型(VH);
方案4:基于抗差垂直向方差分量估计的GPS-InSAR数据融合模型(RVH)。
4种方案的三维方向年平均形变速率场如图 1所示。其中,(a)—(d)、(e)—(h)、(i)—(l)分别为方案1—4的E、N、U方向形变速率场。
图 1 形变速率场
图选项
为进一步验证算法有效性,将三维形变速率场均方根误差(RMSE)及权阵迭代次数作为算法的精度评价指标和效率评价指标。
图 2为方法2、方法4在100×100研究范围内各点权阵迭代次数分布;图 3为方法2、方法4在100个GPS点位上垂直方向形变速率与对应点真值垂直形变速率的拟合残差;表 1为在100×100栅格范围内,4种方法计算的各点三维形变速率与真值在E、N、U方向均方根误差。
图 2 迭代次数分布
图选项
图 3 垂直向形变速率拟合残差
图选项
表 1 各方案RMSE精度评定表
表选项
由图 1和表 1结果可知:
(1) E方向与N方向形变分布较U方向形变图更加平滑,且三维形变方向的拟合残差和均方根误差出现了垂直向误差最大、南北向误差最小的规律,这是由于InSAR模拟值加入的多种噪声,按模拟值的投影矢量参数4∶1∶7的大小比例进行传播,导致各方向的误差呈现出依照对应比例大小分布、水平形变场与垂直形变场的精度差异较大的现象,从而验证了GPS-InSAR融合模型反演三维形变场中,水平形变场主要由精度更高的GPS水平方向数据贡献、垂直方向由敏感度更高的InSAR-LOS数据贡献。
(2) 进行等权计算的方案1与其他进行权比分配的方案相比,计算的三维形变速率精度明显较差,说明合理的定权方法能够直接提升三维形变反演的精度。各方案在加入粗差的情况下,均方根误差均大于未加入粗差情况下的计算结果,说明粗差能直接影响三维形变速率场反演精度,而加入抗差估计方法能够提升三维形变速率场反演结果,有效减小粗差的不利影响。
(3) 在加入粗差的情况下,与方案2相比,方案3迭代效率提升了75.7%,同时三维方向精度分别降低了5.9%、3.7%、8.4%,说明方案3以GPS插值方差作为先验方差参与计算,牺牲了部分精度从而提升三维形变场结算效率,验证了无法准确获取观测值先验方差时,即使利用高精度GPS水平方向插值的方差作为先验方差参与计算,也容易降低与InSAR-LOS向、GPS垂直向权比的准确性,从而影响精度。
(4) 在加入粗差的情况下,方案4相比于方案2,在三维方向精度分别提升了10.5%、7.2%、19.6%,迭代效率提升了40.7%,U方向形变残差明显减小,说明方案4能够有效降低粗差影响,提升三维形变速率场解算效率的同时提高了解算精度,尤其是垂直方向的精度。
4 结 语
初审:杨瑞芳
复审:宋启凡
终审:金 君
往期推荐
资讯
○ 北京大学遥感所人才招聘
○ 2022年度基金委九大学部申请注意事项
○ 研究生如何提炼学位论文创新点
○ 荐书 |《守护自然 珍爱资源——自然资源好新闻作品集(2019—2020)》
会议
○ 国家自然科学基金重大项目“地表异常遥感探测与即时诊断方法”项目启动暨专家委员会成立会议成功举办
○ 筑一流平台 邀天下英才 | 测绘遥感信息工程国家重点实验室诚邀海内外青年才俊参加武汉大学第九届国际交叉学科论坛
○ 武汉大学资环学院诚邀海内外青年才俊参加国际交叉学科论坛
○ 自然资源部深地科学与探测技术实验室2021年度学术年会
《测绘学 》
○ 测绘学 | 魏智威:建筑物图形形状相似性计算的序列分析法
○ 测绘学 | 王勇:复杂建筑物最短邻近线多边形聚合法
○ 测绘学 | 谭永滨:顾及距离约束的地标相对影响力评价模型
○ 测绘学 | 朱长青:区块链与数字水印相结合的地理数据交易存证及版权保护模型
《测绘通 》
○ 地市级实景三维城市建设及应用
○ 面向上海城市数字化转型的新型测绘
○ 基于Sentinel-2影像的雄安新区土地利用分析
○《测绘通 》2021年第12期目录
《北京测绘》
○《北京测绘》2021年第10期摘要推荐
○《北京测绘》2021年第9期摘要推荐
○《北京测绘》2021年第8期摘要推荐(下)
○《北京测绘》2021年第8期摘要推荐(上)
《测绘科学技术学 》
○ 摘要 |《测绘科学技术学 》2021年第2期摘要推荐
○ 摘要 |《测绘科学技术学 》2021年第4期摘要推荐
○ 摘要 |《测绘科学技术学 》2021年第5期摘要推荐
○ 摘要 |《测绘科学技术学 》2021年第6期摘要推荐
《地球信息科学学 》
○ 《地球信息科学学 》2021年第12期佳文推介
○ 《地球信息科学学 》2021年第11期佳文推介
○ 佳文推介 | 大数据城市通勤交通模型的构建与模拟应用
○ 专刊征稿:社会感知与地理大数据挖掘(征稿中)
《测绘工程》
○ 摘要 |《测绘工程》2021年第5期摘要推荐
○ 摘要 |《测绘工程》2021年第4期摘要推荐
○ 摘要 |《测绘工程》2021年第6期摘要推荐
○ 测绘教学 | 后疫情时代“线上+线下”混合教学模式创新——以测绘类课程视角
《中国空间科学技术》
○《中国空间科学技术》2021年第6期摘要
○《中国空间科学技术》2021年第5期摘要推荐
○ 摘要 |《中国空间科学技术》2021年第3期摘要推荐
○ 火卫二地形地貌探测综述
《卫星应用》
○《卫星应用》2021年第12期摘要
○《卫星应用》2021年第11期摘要
○《卫星应用》2021年第10期摘要
○ 摘要 |《卫星应用》2021年第9期摘要推荐
《Journal of Geodesy and Geoinformation Science》
○《测绘学 (英文版)》专刊征稿 | 地图学与地球空间信息教育:理论与实践
○ 《测绘学 (英文版)》(JGGS)2021年第4期发布
○ 《测绘学 (英文版)》专刊征稿 | 用于三维地理信息的摄影测量和计算机视觉
○ 综述 | Geodesy Discipline: Progress and Perspective
《Satellite Navigation》
○ 熊超教授:地磁暴期间夜间低纬电离层和赤道等离子体不规则体| SANA佳文速递
○ 徐元博士:面向有色测量噪声下UWB/INS组合行人导航的分布式卡尔曼滤波| SANA佳文速递
○ 杨飞博士:GNSS天顶对流层精化模型的构建与分析| SANA佳文速递
○ 姚铮教授:北斗PPP服务信号调制复用方案设计与质量评估| SANA佳文速递
《自然资源遥感》
○ 《自然资源遥感》入驻“智绘科服”融媒体平台!
○ 《自然资源遥感》征稿:“海岸带空间资源及生态健康遥感监测”专栏
○ 摘要 |《自然资源遥感》2021年第3期摘要推荐
○ 摘要 |《自然资源遥感》2021年第4期摘要推荐
《Journal of Geovisualization and Spatial Analysis》
○《Journal of Geovisualization and Spatial Analysis》入驻“智绘科服”融媒体平台!
○ JGSA国际期刊2021年第5卷第2期论文摘要
○ 高被引论文推荐 | Journal of Geovisualization and Spatial Analysis
声明:本站部分文章内容及图片转载于互联 、内容不代表本站观点,如有内容涉及侵权,请您立即联系本站处理,非常感谢!