• 中文核心期刊
  • 中国科技核心期刊
  • ISSN 1007-6336
  • CN 21-1168/X

基于改进SOLOv2算法的海滩影像水边线提取研究

庞坤, 朱君, 王楠, 孔腾飞, 戚洪帅, 雷刚, 尹航, 刘根

庞坤, 朱君, 王楠, 孔腾飞, 戚洪帅, 雷刚, 尹航, 刘根. 基于改进SOLOv2算法的海滩影像水边线提取研究[J]. 海洋环境科学, 2025, 44(1): 145-151. DOI: 10.12111/j.mes.2023-x-0322
引用本文: 庞坤, 朱君, 王楠, 孔腾飞, 戚洪帅, 雷刚, 尹航, 刘根. 基于改进SOLOv2算法的海滩影像水边线提取研究[J]. 海洋环境科学, 2025, 44(1): 145-151. DOI: 10.12111/j.mes.2023-x-0322
PANG Kun, ZHU Jun, WANG Nan, KONG Tengfei, QI Hongshuai, LEI Gang, YIN Hang, LIU Gen. Research on waterline extraction from beach images based on improved SOLOv2 algorithm[J]. Chinese Journal of MARINE ENVIRONMENTAL SCIENCE, 2025, 44(1): 145-151. DOI: 10.12111/j.mes.2023-x-0322
Citation: PANG Kun, ZHU Jun, WANG Nan, KONG Tengfei, QI Hongshuai, LEI Gang, YIN Hang, LIU Gen. Research on waterline extraction from beach images based on improved SOLOv2 algorithm[J]. Chinese Journal of MARINE ENVIRONMENTAL SCIENCE, 2025, 44(1): 145-151. DOI: 10.12111/j.mes.2023-x-0322

基于改进SOLOv2算法的海滩影像水边线提取研究

基金项目: 国家自然科学基金项目(42006176);烟台市科技创新发展计划基础研究重点项目(2022JCYJ028);自然资源部海洋生态保护与修复重点实验室/福建省海洋生态保护与修复重点实验室开放基金课题(EPR2023007)
详细信息
    作者简介:

    庞 坤(1995-),男,安徽淮南人,硕士研究生,主要从事海岸带遥感观测研究,E-mail:401883244@qq.com

    通讯作者:

    朱 君(1985-),男,山东枣庄人,博士,教授,主要从事海岸动力地貌方面的研究,E-mail:zhujun@ldu.edu.cn

  • 中图分类号: TP391.41

Research on waterline extraction from beach images based on improved SOLOv2 algorithm

  • 摘要:

    海滩水边线的提取是海洋科学和海岸工程领域的一项重要研究任务。为缓解传统方法在处理该任务时存在的噪声敏感、阈值不稳定、需手动调参等问题,本文对影像数据进行了极值预处理,并提出了基于可变形卷积的改进SOLOv2水边线提取算法。本文探讨了特征提取网络深度和可变形卷积(DCN)应用层数对算法精度与速度的影响。随着特征提取网络深度的增加,水边线提取算法的精度逐渐提高,但速度明显降低,实际特征提取网络深度以50为宜;随着DCN应用层数的增加,水边线提取算法的精度呈先增加后减小的趋势,实际应用层数以2为宜;相较于原始SOLOv2算法,改进SOLOv2算法在平均精度(average precision, AP)和平均交并比(intersection over union, IoU)上的性能分别提升了1.7%和0.1%。此外,通过将算法权重由单精度转换为半精度,进一步提升了算法的推理速度。

    Abstract:

    The extraction of beach waterline is an important research task in the field of marine science and coastal engineering. In order to alleviate the problems of noise sensitivity, unstable thresholds, and manual parameter adjustment that exist in traditional methods when dealing with this task, this paper performs extreme value preprocessing on image data and proposes an improved SOLOv2 waterline extraction algorithm based on deformable convolution. This paper explores the effects of feature extraction network depth and the number of deformable convolution (DCN) application layers on the accuracy and speed of the algorithm. As the depth of the feature extraction network increases, the accuracy of the waterline extraction algorithm gradually improves, but the speed decreases significantly. The actual depth of the feature extraction network is recommended to be 50; As the number of DCN application layers increases, the accuracy of the waterline extraction algorithm shows a trend of first increasing and then decreasing. The actual number of the application layers is recommended to be 2; Compared with the original SOLOv2 algorithm, the improved SOLOv2 algorithm has improved performance by 1.7% and 0.1% in average precision (AP) and average Intersection over Union (IoU), respectively. In addition, by converting the algorithm weight from single precision to half precision, the inference speed of the algorithm has been further improved.

  • 水边线是海水与陆地之间在时间和空间上不断变化的瞬时边界。受涨落潮和波浪爬升等因素影响,水边线呈现明显的时空变化差异。水边线的定量变化是研究海岸演变过程的重要依据,可用于分析海岸侵蚀、河口淤积以及海平面上升等现象[1]。因此,高分辨率的海滩水边线时空变化数据对于分析海滩侵蚀淤积变化、保障海滩游客安全、保护海岸基础设施等具有重要意义[2-4]

    基于影像数据提取海滩水边线的传统方法主要包括阈值分割法[5]、边缘检测算子法[6]、面向对象法[7]、区域生长法[8]等,其中,以边缘检测算子法最为成熟且应用最为广泛[9]。目前,国内外学者已使用多种边缘检测算子法开展遥感影像岸线提取研究,包括Sobel算子法[10]、Roberts算子法[11]、Canny算子法[12-14]等。Kass等[15]提出了一种基于Snakes活动轮廓模型的新型边缘检测算法,可应用于海滩水边线的提取和平滑处理,但因参数过多使模型较为复杂;De等[16]提出了基于图像纹理特征和模糊连通性的砂质海岸水边线检测定位方法;张旭凯等[17]使用改进归一化差异水体指数[18]分离水体和陆地,结合Canny算子提取得到水边线。但上述方法存在噪声敏感、阈值不稳定、需要手动设置参数等问题。

    最近几年,依靠数据与算力驱动的深度学习技术蓬勃发展,基于这一技术的图像处理方法逐渐成为研究的热点。与传统方法不同的是,该方法不需要手动分析目标特征,只需针对任务场景手动标注一定数量的数据,让算法不断地从数据中学习图像语义特征即可取得优秀的识别效果,极大地节省了研究者的时间与精力。目前深度学习技术已在图像分类、识别、分割等领域得到了广泛的应用[19-20]

    实例分割是结合目标检测和语义分割的一个更高层次的视觉任务。当前实例分割领域中比较经典的算法是Mask RCNN[21],它使用深度残差网络ResNet[22]提取语义信息,再利用特征金字塔(feature pyramid networks, FPN)[23]将深层语义信息和浅层纹理信息进行融合,然后利用区域建议网络(region proposal network, RPN)获取感兴趣区域(region of interest, ROI),再通过RCNN网络对ROI进行微调进而输出每个ROI的位置坐标和所属类别。最终,通过非极大值抑制(non-maximum suppression, NMS)筛选出最佳ROI。Mask RCNN在精度上取得了不错的效果,但是由于其需要大量时间生成ROI,因此无法实现对视频图像的实时分割。Bolya等[24]提出了实时实例分割网络YOLACT,YOLACT主要通过两个并行的分支来实现对图像的分割,但是分割精度较低。Wang等[25]提出了SOLOv2实例分割算法,在不降低分割精度的情况下,提高了算法的分割速度,但是在海滩影像中的水边线提取场景下仍存在超大输入分辨率、水边线复杂多变的现象。

    为缓解上述问题,本研究对SOLOv2算法进行了改进:利用可变形卷积来灵活提取水边线复杂多变的特征,并将其应用到特征提取网络中以提升算法对水边线特征的提取能力;同时将最终算法权重由单精度转为半精度执行运算过程以提升算法的运行速度。该方法为海滩的智能监控提供了便捷工具,可进一步服务于海滩影像的实时监控及海岸的防灾减灾。

    SOLOv2的模型架构如图1所示,输入图像经过ResNet提取到不同层级下的特征,随后将提取到的特征经过FPN分别传入两个分支中进一步处理,得到最终mask结果。

    图  1  SOLOv2模型架构
    Fig.  1  SOLOv2 model framework

    在SOLOv2中含有两个并行分支:一个是负责预测物体位置的掩码分支,另一个是负责预测物体所属类别的类别分支。同时,利用FPN来提高各种尺度大小物体的分割精度。在FPN中,每个输出的特征图都会进入上述两个分支。

    (1)类别分支输出预测物体的所属类别,输出S×S×C个语义类别结果,其中S×SC分别是划分的网格数目和分割类别总数。

    (2)掩码分支分为掩码核分支与掩码特征分支,掩码核分支负责输出卷积核权重,掩码特征分支负责输出卷积特征图。核分支的输入是经过FPN提取到的特征图,输出的是后续进行卷积操作时S×S×O大小的卷积核权重,其中O表示卷积核的参数量(卷积核宽×卷积核高×卷积核维度)。特征分支输出的特征图为H×W×D,其中D是掩码特征的维度,也是卷积核维度。最后将卷积核权重与特征图进行卷积,得到预测的分割结果。

    NMS是一种常用于目标检测和实例分割任务中的技术。在目标检测中,模型通常会生成多个候选框,而NMS的作用是筛选出最可能包含目标的候选框。传统NMS的运算速度较慢,往往是算法运行速度的瓶颈所在。Bolya等[24]在YOLACT中提出的Fast NMS虽然可以并行计算加速,但它是通过牺牲一定精度实现的。Wang[25]等在SOLOv2中提出的Matrix NMS不仅能在1ms内处理500个候选框,还能比普通NMS提升0.3%的分割精度。这使SOLOv2在速度和精度方面都优于之前大多数经典分割方法。

    尽管SOLOv2具有速度快、精度高的特点,但其主要适用于单一的分割目标形态并且其实时处理的最大输入尺寸为512×512。对于持续动态变化的波浪水边界线,普通卷积无法有效地提取水边界特征,因此本文尝试将可变形卷积(deformable convolutional networks, DCN)[26]引入ResNet的基础卷积模块中以增加对水边线的特征提取能力,同时提出了基于半精度FP16(half-precision floating-point,FP16)的SOLOv2模型以增加算法运行速度。

    (1)DCN是在传统卷积图2a的基础上增加了卷积偏移权重,使卷积核与偏移后的特征图进行卷积操作,如图2b和图2c所示。图中圆形位置是传统卷积位置,箭头所指的菱形位置是偏移后的卷积位置,箭头是特征图偏移方向。针对不规则的物体,偏移后的卷积区域更符合实际物体的形状,提取的特征信息更加丰富。但是DCN引入特征偏移量的同时,可能会生成部分与目标区域无关的噪声,因此在DCNv2[27]中加入了对每个特征偏移量的权重,在保持学习偏移的同时,可以将一些噪声位置的偏移权重设置为0,使得卷积操作能够在目标物体有效范围内进行。

    图  2  传统卷积与可变形卷积计算
    Fig.  2  Schematic diagram of traditional Convolution and DCN computation

    对于任意特征图$ p $处提取到的特征为$ y\left(p\right) $,计算公式为:

    $$ y\left(p\right)=\sum_{k=1}^Kw_kx\left(p+p_k+\Delta p_k\right)\Delta m_k $$ (1)

    式中:$ K $是在$ p $处卷积核范围内所有采样的位置总数;$ {w}_{k} $为第$ k $位置处的权重;$ x\left({p}+{{p}}_{{k}}+\Delta {{p}}_{{k}}\right) $为$ p $处偏移后的特征值;$ {p}_{k} $是预先设定$ p $处的偏移;$ \Delta {p}_{k} $为第$ k $位置上可学习的偏移;$ \Delta {m}_{k} $为第$ k $位置上的可调权重。

    (2)SOLOv2算法在训练时模型中的权重是32位浮点数的精度(Single-Precision Floating-Point 32,FP32),需要32 bit存储空间,当算法训练完成,SOLOv2在部署推理的过程中不需要反向传播,可以适当降低权重精度而无须担心性能下降的问题。将权重的数值精度由FP32单精度转为FP16半精度,可以使SOLOv2模型的内存占用和耗时降低,从而达到显著增加网络运行速度的效果。

    本文研究区域位于福建省泉州市崇武镇西沙湾海滩,西沙湾东侧为崇武闽台贸易码头,西侧为前垵村。该处海滩岸线长度为1.3 km,呈典型的东西向延伸的月牙形岬湾。海湾中间呈内凹的砂质海滩,海滩滩肩到低潮带约200 m,地形主要为低潮阶地形,高潮带到中、低潮带坡度相对较大,低潮带以下坡面平缓,滩面沉积物主要由中粗砂和中细砂组成。

    西沙湾所属崇武海域潮汐类型为正规半日潮,平均潮差为4.27 m。波浪以混合浪为主,全年强浪向为S向,最大波高为10.1 m,平均波周期月度均值为3.3~4.5 s;春冬季常浪向为E向,夏季常浪向为SSE向,秋季常浪向为ESE向。

    本文采用的数据来自自然资源部第三海洋研究所在泉州西沙湾的海滩视频监控影像。监控数据采集自4个摄像头(图3a),分辨率为3840×2160,帧率为25 Hz,时间为2022年7月1日至3日。本文以监控视频白天(上午7时至下午6时)整点后10分钟内的影像数据作为该整点时刻的分析数据。

    图  3  原始(a)和极值(b)图像
    Fig.  3  Original(a) images and max value(b) images

    经筛选,3天4种监控视角的有效分析数据共1320分钟。取视频段连续时间内(10分钟)的最大像素值图像,白色浪花部分即为水边界提取的重点分析区域,该区域的岸线边界即为水边线。总计得到132幅极值图像,并随机选取104张图像作为训练集,其余28张图像作为验证集,用来测试算法的速度及精度。极值图像可以有效反映波浪的最大爬坡上界,避免了瞬时影像中的水边线特征不明显,均时影像中的水边线[28]特征模糊的缺点。经过极值处理能明显提升图片中水边界线的辨析度(图3b)。

    实验环境为Windows11操作系统,运行内存为32 GB,显卡为GeForce RTX 4090,软件环境为Python3.9、PyTorch2.0、CUDA11.8、Cudnn8.6.5等,算法运行框架为MMDet v3.0。

    算法的性能与特征提取网络深度以及DCN的应用层数相关。为了获取最佳的算法结构,本文设置了4种不同的网络深度(18、34、50、101)以及4种不同的DCN应用层数(从1到4),详细对比了网络深度和DCN应用层数对算法精度的影响。在确定最佳网络深度和DCN应用层数后,论文进一步对比了改进SOLOv2算法与现有经典算法的区别。

    网络输出结果是与原图大小一致的概率图,取值范围为[0,1]。为得到二值化的水边线掩膜mask,将概率图依据阈值0.5,将小于该阈值的地方记为背景并设置为0,大于该阈值的地方记为水边线并设置为1。如此即可得到海滩影像的水边线提取结果。

    为评估改进SOLOv2算法的性能效果,本文选用交并比、平均精度、每秒处理帧数等三个评价指标。

    (1)交并比(intersection over union, IoU)计算的是真实区域和预测区域的交集与并集的比值,计算公式为:

    $$ IoU=\frac{S_P\cap S_T}{S_P\cup S_T} $$ (2)

    式中:$ {S}_{T} $为图像中由人工标注的实际存在的波浪区域;$ {S}_{P} $为图像中预测的波浪区域,这两者均为二值化的掩膜mask。IoU的取值范围为0~1,IoU越大表示真实区域与预测区域的重叠区域越大,算法预测效果越好,反之亦然。

    (2)平均精度(average Precision, AP)为主流实例分割算法的评价指标。本文中AP评价指标采用了COCO数据集[29]的评价标准,它是$ p $-$ r $(准确率−召回率)曲线与坐标轴围成的区域面积,计算公式为:

    $$ AP=\int_0^1p\left(r\right)dr $$ (3)

    式中:$ p\left(r\right) $为$ p $-$ r $曲线上的值。

    准确率$ p $和召回率$ r $的计算公式分别为:

    $$ p=\frac{TP}{TP+FP} $$ (4)
    $$ r=\frac{TP}{TP+FN} $$ (5)

    式中:$ TP $是实际正样本,并且是正确识别成正样本的情况;$ FP $是实际负样本,但是错误识别成正样本的情况;$ FN $是实际正样本,但是错误识别成负样本的情况。

    (3)每秒处理帧数(frames per second, FPS),表示算法在单位时间内处理图像数量。FPS越高,算法的实时性越好。

    SOLOv2算法的特征提取网络是ResNet。Zhu等[27]在精度与速度的权衡下设计出了18、34、50、101、152等5种深度的网络,它们主要是由4种基础模块组成,不同深度的网络区别在于模块内部卷积层数不同。在实际应用中应根据目标场景的复杂度来选取合适的深度,场景越复杂越需要更深的网络来学习语义特征,但仍需以最终实验结果为指导依据。由于ResNet152计算量过大,本文选用ResNet18、ResNet34、ResNet50、ResNet101进行算法训练。由图4可知,当采用不同的特征提取网络进行训练时,随着迭代次数的增加,总损失值呈逐渐减小的趋势,并最终趋于稳定,当迭代到1800次时,算法达到收敛。其中,以ResNet50和ResNet101作为特征提取网络的模型总损失值分别为0.099和0.101,低于其他网络的损失值,表现出更强的收敛能力。

    图  4  不同特征提取网络训练损失曲线
    Fig.  4  Training loss curves of different feature extraction network

    为了选取最佳的特征提取网络以增强算法的拟合能力,将4种不同的特征提取网络在验证集上进行验证比较,见表1。以ResNet50作为特征提取网络,AP和IoU分别为87.2%和92.3%,比ResNet18和ResNet34的AP高1.7%和0.7%,比ResNet18的IoU高0.6%,比ResNet101的AP和IoU分别低0.4%和0.2%。说明深度更深的网络表现出更好的拟合能力,但随着层数增加,收益递减,同时运行速度也降低。综合考虑算法整体性能,选择ResNet50作为特征提取网络更为合适。

    表  1  不同特征提取网络深度在验证集上的性能
    Tab.  1  Performance of different feature extraction network depths on validation set
    特征提取网络 IoU/(%) AP/(%) FPS/f·s−1
    ResNet18 91.7 85.5 16
    ResNet34 92.3 86.5 13
    ResNet50 92.3 87.2 12
    ResNet101 92.5 87.6 9
    下载: 导出CSV 
    | 显示表格

    以ResNet50作为SOLOv2特征提取网络,将ResNet50的四个模块分别应用DCN,并在验证集上进行验证比较。由表2可知,随着DCN应用层数的增加,精度先增加后减小;当DCN应用层数为2时,AP比应用层数为1、3、4时分别高2.1%、0.8%、1%, IoU比应用层数为1、3、4时分别高0.3%、0.3%、0.1%。因此,当应用层数取2时,算法的效果最好。

    表  2  不同DCN应用层数性能对比
    Tab.  2  Performance comparison of different DCN application layers
    应用层数 IoU/(%) AP/(%) FPS/f·s−1
    前1层 92.0 86.8 11
    前2层 92.3 88.9 11
    前3层 92.0 88.1 10
    前4层 92.2 87.9 10
    下载: 导出CSV 
    | 显示表格

    在选定ResNet50作为特征提取网络,2为DCN应用层数后得到改进的SOLOv2算法。为了测试改进后算法的实际效果,将其与现有经典分割算法在海滩影像的验证集上进行测试。图5为各算法在验证集上的可视化分割结果。根据图5可知,Mask RCNN和YOLACT有明显的漏检和误检,SOLOv2对水边线边缘区域的分割结果不够精确,改进的SOLOv2算法则改善了这两种情况,对水边线的边界位置分割得更精准。表3为不同算法在验证集上的性能比较,由表3可知,改进SOLOv2水边线分割算法在IoU和AP指标上均高于其他算法。

    图  5  各算法的实际分割效果对比
    Fig.  5  Comparison of actual segmentation effect of each algorithms
    表  3  不同算法在验证集上的性能对比
    Tab.  3  Performance of different algorithms on the validation set
    不同算法 IoU/(%) AP/(%) FPS/f·s−1
    Mask RCNN 84.8 75.7 11
    YOLACT 88.6 76.3 36
    SOLOv2 92.2 87.2 12
    改进的SOLOv2 92.3 88.9 11
    改进的SOLOv2-FP16 92.3 88.9 22
    下载: 导出CSV 
    | 显示表格

    虽然改进的SOLOv2水边线分割算法相比于原始SOLOv2及其他经典分割算法精度有明显提升,但FPS较低。为提高改进的SOLOv2算法的运行速度,本文进一步对改进的SOLOv2算法权重进行了FP16转换。由表3可知,在不降低分割精度的情况下,经过FP16处理后改进的SOLOv2算法的FPS由11提升至22。该算法不仅精度较高,而且计算速度较快,可在一定程度上满足影像数据实时处理的需求。

    (1)水边线提取算法的精度和计算时长与特征提取网络的深度呈正相关,当深度为50时可取得精度与计算时长的最佳平衡点。

    (2)水边线提取算法的精度随着DCN应用层数的增大呈先增大后减小的趋势,当应用层数为2时精度最高。

    (3)改进后的SOLOv2水边线提取算法具有更高的精度,相较于原始SOLOv2算法,AP提升1.7%,IoU提升了0.1%。

    (4)对改进的SOLOv2算法权重进行FP16转换可在不降低精度的情况下大幅提高计算速度,从而在一定程度上满足影像数据实时处理的需求。

  • 图  1   SOLOv2模型架构

    Fig.  1.   SOLOv2 model framework

    图  2   传统卷积与可变形卷积计算

    Fig.  2.   Schematic diagram of traditional Convolution and DCN computation

    图  3   原始(a)和极值(b)图像

    Fig.  3.   Original(a) images and max value(b) images

    图  4   不同特征提取网络训练损失曲线

    Fig.  4.   Training loss curves of different feature extraction network

    图  5   各算法的实际分割效果对比

    Fig.  5.   Comparison of actual segmentation effect of each algorithms

    表  1   不同特征提取网络深度在验证集上的性能

    Tab.  1   Performance of different feature extraction network depths on validation set

    特征提取网络 IoU/(%) AP/(%) FPS/f·s−1
    ResNet18 91.7 85.5 16
    ResNet34 92.3 86.5 13
    ResNet50 92.3 87.2 12
    ResNet101 92.5 87.6 9
    下载: 导出CSV

    表  2   不同DCN应用层数性能对比

    Tab.  2   Performance comparison of different DCN application layers

    应用层数 IoU/(%) AP/(%) FPS/f·s−1
    前1层 92.0 86.8 11
    前2层 92.3 88.9 11
    前3层 92.0 88.1 10
    前4层 92.2 87.9 10
    下载: 导出CSV

    表  3   不同算法在验证集上的性能对比

    Tab.  3   Performance of different algorithms on the validation set

    不同算法 IoU/(%) AP/(%) FPS/f·s−1
    Mask RCNN 84.8 75.7 11
    YOLACT 88.6 76.3 36
    SOLOv2 92.2 87.2 12
    改进的SOLOv2 92.3 88.9 11
    改进的SOLOv2-FP16 92.3 88.9 22
    下载: 导出CSV
  • [1] 伊伟东, 于新生, 崔尚公. 基于蚁群优化的近岸影像水边线变化分析方法[J]. 海洋学报, 2016, 38(7): 72-84.
    [2]

    YANG H Y, ZHANG C, SHI J, et al. Laboratory observations of swash signatures using video imagery[J]. Journal of Marine Science and Engineering, 2022, 10(12): 1833. doi: 10.3390/jmse10121833

    [3]

    CHI S H, ZHANG C, SUI T T, et al. Field observation of wave overtopping at sea dike using shore-based video images[J]. Journal of Hydrodynamics, 2021, 33(4): 657-672. doi: 10.1007/s42241-021-0073-1

    [4]

    CAO Z B, ZHANG C, CHI S H, et al. Video-based monitoring of an artificial beach nourishment project[J]. Journal of Coastal Research, 2020, 95: 1037-1041. doi: 10.2112/SI95-202.1

    [5] 吴一全, 孟天亮, 吴诗婳. 图像阈值分割方法研究进展20年(1994–2014)[J]. 数据采集与处理, 2015, 30(1): 1-23.
    [6] 顾 智, 贾培宏, 李功成, 等. 基于Canny算子的海南陵水双潟湖岸线提取技术[J]. 第四纪研究, 2016, 36(1): 113-120.
    [7] 张华国, 郭艳霞, 黄韦艮, 等. 1986年以来杭州湾围垦淤涨状况卫星遥感调查[J]. 国土资源遥感, 2005(2): 50-54.
    [8] 詹雅婷, 朱 利, 孙永华, 等. 海岸线遥感光谱角度−距离相似度生长模型自动化提取[J]. 遥感学报, 2017, 21(3): 458-469.
    [9]

    TOURE S, DIOP O, KPALMA K, et al. Shoreline detection using optical remote sensing: a review[J]. ISPRS International Journal of Geo-Information, 2019, 8(2): 75. doi: 10.3390/ijgi8020075

    [10] 刘晓莉, 范玉茹. 常用边缘检测算法在不同影像海岸线中提取比较研究[J]. 测绘与空间地理信息, 2014, 37(11): 149-151.
    [11] 于 杰, 杜飞雁, 陈国宝, 等. 基于遥感技术的大亚湾海岸线的变迁研究[J]. 遥感技术与应用, 2009, 24(4): 512-516.
    [12] 蒋科迪, 殷 勇, 范开桂, 等. 基于Canny算子的南通江海岸线研究[J]. 测绘通报, 2019(10): 83-88.
    [13]

    BOUCHAHMA M, YAN W L. Monitoring shoreline change on Djerba Island using GIS and multi-temporal satellite data[J]. Arabian Journal of Geosciences, 2014, 7(9): 3705-3713. doi: 10.1007/s12517-013-1052-9

    [14]

    BACHOFER F, QUÉNÉHERVÉ G, MÄRKER M. The delineation of paleo-shorelines in the lake Manyara Basin using TerraSAR-X data[J]. Remote Sensing, 2014, 6(3): 2195-2212.

    [15]

    KASS M, WITKIN A, TERZOPOULOS D. Snakes: active contour models[J]. International Journal of Computer Vision, 1988, 1(4): 321-331. doi: 10.1007/BF00133570

    [16]

    DE LAURENTIIS R, DELLEPIANE S G, BO G. Texture features analysis for coastline extraction in remotely sensed images[C]//Proceedings of SPIE 4541, Image and Signal Processing for Remote Sensing VII. Toulouse, France: SPIE, 2002: 297-305.

    [17] 张旭凯, 张 霞, 杨邦会, 等. 结合海岸类型和潮位校正的海岸线遥感提取[J]. 国土资源遥感, 2013, 25(4): 91-97.
    [18]

    XU H Q. Modification of normalised difference water index (NDWI) to enhance open water features in remotely sensed imagery[J]. International Journal of Remote Sensing, 2006, 27(14): 3025-3033. doi: 10.1080/01431160600589179

    [19] 许 玥, 冯梦如, 皮家甜, 等. 基于深度学习模型的遥感图像分割方法[J]. 计算机应用, 2019, 39(10): 2905-2914.
    [20] 李越帅, 郑宏伟, 罗格平, 等. 集成U-Net方法的无人机影像胡杨树冠提取和计数[J]. 遥感技术与应用, 2019, 34(5): 939-949.
    [21]

    HE K M, GKIOXARI G, DOLLÁR P, et al. Mask R-CNN[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 2980-2988.

    [22]

    HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016: 770-778.

    [23]

    LIN T Y, DOLLÁR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE, 2017: 936-944.

    [24]

    BOLYA D, ZHOU C, XIAO F Y, et al. YOLACT: real-time instance segmentation[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul, Korea (South): IEEE, 2019: 9156-9165.

    [25]

    WANG X L, ZHANG R F, KONG T, et al. SOLOv2: dynamic and fast instance segmentation[C]//Proceedings of the 34th International Conference on Neural Information Processing Systems. Vancouver, Canada: Curran Associates Inc. , 2020: 1487.

    [26]

    DAI J F, QI H Z, XIONG Y W, et al. Deformable convolutional networks[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 764-773.

    [27]

    ZHU X Z, HU H, LIN S, et al. Deformable ConvNets v2: More deformable, better results[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, USA: IEEE, 2019: 9300-9308.

    [28] 尹 航, 戚洪帅, 蔡 锋, 等. 高分影像砂质海岸线精细提取及校正方法[J]. 海洋学报, 2022, 44(4): 143-152.
    [29]

    LIN T Y, MAIRE M, BELONGIE S, et al. Microsoft COCO: common objects in context[C]// Proceedings of the 13th European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014: 740-755.

图(5)  /  表(3)
计量
  • 文章访问数:  24
  • HTML全文浏览量:  0
  • PDF下载量:  4
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-11-28
  • 修回日期:  2024-05-12
  • 录用日期:  2024-04-15
  • 刊出日期:  2025-02-19

目录

/

返回文章
返回
x 关闭 永久关闭