遥感技术与应用, 2020, 35(4): 741-748 doi: 10.11873/j.issn.1004-0323.2020.4.0741

甘肃遥感学会专栏

一种改进U-Net的高分辨率遥感影像道路提取方法

王卓,1,2,3, 闫浩文,1,2,3, 禄小敏1,2,3, 冯天文4,5, 李亚珍4,5

1.兰州交通大学测绘与地理信息学院, 甘肃 兰州 730070

2.地理国情监测技术应用国家地方联合工程研究中心, 甘肃 兰州 730070

3.甘肃省地理国情监测工程实验室, 甘肃 兰州 730070

4.中国科学院西北生态环境资源研究院,甘肃 兰州 730000

5.中国科学院大学,北京 100049

High-resolution Remote Sensing Image Road Extraction Method for Improving U-Net

Wang Zhuo,1,2,3, Yan Haowen,1,2,3, Lu Xiaomin1,2,3, Feng Tianwen4,5, Li Yazhen4,5

1.Faculty of Geomatics, Lanzhou Jiaotong University, Lanzhou 730070, China

2.National-Local Joint Engineering Research Center of Technologies and Application for National Geographic State Monitoring, Lanzhou 730070, China

3.Gansu Provincial Engineering Laboratory for National Geographic State Monitoring, Lanzhou 730070, China

4.Northwest Institute of Eco-Environment and Resources, Chinese Academy of Sciences, Lanzhou 730000, China

5.University of Chinese Academy of Sciences, Beijing 100049, China

通讯作者: 闫浩文(1969—),男,甘肃民勤人,教授,主要从事地图自动综合和空间方向关系方面的研究。E⁃mail:haowen2010@gmail.com

收稿日期: 2019-10-17   修回日期: 2020-06-23   网络出版日期: 2020-09-14

基金资助: 国家重点研发计划项目.  2017YFB0504203
国家自然科学基金项目.  41671447.  41861055
国家青年基金项目.  41801395
中国博士后科学基金.  2019M653795
兰州交通大学优秀平台.  201806

Received: 2019-10-17   Revised: 2020-06-23   Online: 2020-09-14

作者简介 About authors

王卓(1994-),男,甘肃庆阳人,硕士研究生,主要从事遥感影像解译E⁃mail:1078095001@qq.com , E-mail:1078095001@qq.com

摘要

从遥感影像中准确高效地提取道路信息,对基础地理数据库的建立与维护具有重大意义。高分辨率遥感影像背景信息复杂,导致现有算法无法较好地从中提取道路信息。U-Net网络在图像分割方面有较好的实验效果,但道路分割结果准确性不佳,因此,提出了一种改进U-Net网络的高分辨率影像道路提取方法。首先,设计基于U-Net的网络结构,将VGG16作为网络编码结构,可更好地提取特征语义信息;其次,利用Batch Normalization与Dropout解决网络训练过程中出现的过拟合;最后,对训练数据利用旋转与镜像变换进行扩充,采用ELU激活函数,提升了网络训练速度。实验结果表明:该方法可以较为准确高效地提取道路信息。

关键词: 高分辨率遥感影像 ; 道路提取 ; U-Net网络

Abstract

Accurate and efficient extraction of road information based on remote sensing image is a great significance for the establishment and maintenance of basic geographic databases. Due to the complex background information of high-resolution remote sensing images, existing algorithms cannot extract road information very well. U-Net network has good experimental results in image segmentation, but the accuracy of road segmentation results is not good. For this reason, this paper proposes a high-resolution image road extraction method based on improved U-Net network. Firstly, the U-Net-based network structure is designed and implemented. The network uses VGG16 as the network coding structure, which can extract feature semantic information better. Secondly, the use of Batch Normalization and Dropout solves the phenomenon of over-fitting that occurs during the network training process. Finally, the training data is expanded by rotation and mirror transformation, and the ELU activation function is used to improve the network training speed. The experimental results show that the method can extract road information more accurately and efficiently.

Keywords: High resolution remote sensing image ; Road extraction ; U-Net

PDF (5119KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王卓, 闫浩文, 禄小敏, 冯天文, 李亚珍. 一种改进U-Net的高分辨率遥感影像道路提取方法. 遥感技术与应用[J], 2020, 35(4): 741-748 doi:10.11873/j.issn.1004-0323.2020.4.0741

Wang Zhuo, Yan Haowen, Lu Xiaomin, Feng Tianwen, Li Yazhen. High-resolution Remote Sensing Image Road Extraction Method for Improving U-Net. Remote Sensing Technology and Application[J], 2020, 35(4): 741-748 doi:10.11873/j.issn.1004-0323.2020.4.0741

1 引 言

遥感影像中蕴含大量的地物空间信息,为地理空间信息的获取提供了方便快捷的途径,但如何精准高效地提取地物信息仍然是遥感领域的难点和热点。道路作为基础的地物要素之一,其提取依旧是地理科学和遥感等领域研究的重点。精准地提取道路信息能够提升路网构建、更新和维护的效率,同时,其在无人驾驶[1]、军事打击[2]、灾害救援[3]等领域都具有重大意义。

对于道路提取,相关学者已经做了大量的研究工作。张永宏等[4]对现有的道路提取模型做了全面的分析与总结,将其按照道路提取的层次进展分为以下3类:基于像元、对象和深度学习等方法。基于像元的道路提取方法能够充分利用影像的光谱特征和空间特征,如Richard等[5]利用光谱特征进行提取,罗庆洲等[6]利用光谱特征和几何特征进行提取。该类方法能够在场景简单的影像中可以较好地提取道路,但在复杂场景下,则较难区分道路和建筑物及其阴影。基于对象的方法利用空间、纹理和光谱特征,将临近像元作为对象来识别影像,如蔡红玥等[7]提出的改进的分水岭算法,余长慧等[8]提出的利用MRF的方法,Li等[9]提出的利用模糊集理论进行区域合并的方法,曹云刚等[10]提出的像元与对象特征融合的高分辨率遥感影像道路中心线提取方法,Das等[11]提出的利用多光谱影像的局部线性特征结合支持向量机对道路进行提取的方法。该类算法可以较好地提取道路,但对于空间位置相邻、几何形状相似的地物较难区分。基于深度学习的方法使计算机可从浅层的特征自动学习更加复杂抽象的特征,从而能够准确和高效地进行分类判别,如刘笑等[12]提出的基于全卷积神经网络的方法,贺浩等[13]提出的基于Encoder-Decoder网络的方法,Kampffmeyer等[14-17]提出的应用FCN及其改进的道路提取方法,Kestur[18]等提出的UFCN网络模型,Zhang等[19]提出的基于ResNet与U-Net的网络模型,Panboonyuen等[20]提出的基于SegNet与ELU的网络模型。该类方法可以较好地将道路区域进行分割,但其分割结果存在孤立点与断裂道路。综上所述,以上3种算法都不能很好地提取道路信息,提取的准确率有待进一步提升。

U-Net[21]在保留了高级的语义信息的同时采用跳跃连接顾及了低级的细节信息[19],对生物医学影像分割效果较好,但训练易出现过拟合,分割效果不能满足道路提取的需求。王宇等[22]提出结合残差网络的建筑物提取方法,以Encoder-Decoder为基础,引入残差网络结构和Batch Normalization,提高了分类精度。崔刚等[23]为研究不同分辨率图像的冬小麦识别效果,采用了基于PSPNet[24]的网络结构,该结构采用了跳跃连接,冬小麦识别研究中取得了很好的效果。为此,提出了一种改进U-Net的高分辨率遥感影像道路提取方法,利用Batch Normalization、ELU与Dropout较好地解决了过拟合所导致的准确率较低的问题,并利用TGRS2017数据集[25]进行了有关实验,实现道路信息的高维、复杂、抽象特征的自动提取,解决目前算法提取结果存在较多孤立点与少量断裂道路的问题。

2 遥感影像道路提取方法

基于U-Net网络模型提取道路信息的实验过程具体如下:首先,将高分辨率遥感数据进行人工解译,并对其训练数据根据网络结构和硬件需求裁剪成相应大小,制作训练数据集。实验采用的数据集为TGRS2017数据集[14],并对该数据集进行旋转与镜像的操作进行扩充。其次,将训练数据输入实验网络模型进行学习与训练,不断更新网络模型中的参数,使损失值减少到最低,保存当前网络模型。最后,利用其训练好的网络模型进行道路提取。

2.1 U-Net与VGG16

U-Net[21]于2015年由Ronneberger等提出,其网络结构如图1所示,图中Conv2D代表卷积计算,MaxPooling为最大池化操作,UpSampling2D 为上采样计算。U-Net网络是由用于获取上下文信息的编码路径与用于实现精确定位的对称扩展路径组成。其中收缩编码路径与卷积神经网络的典型结构相同,由卷积计算与池化计算交替组合而成,逐渐缩小特征图像大小,同时增加每一层的特征图像数量。扩展路径每一组计算都包含该特征图像的上采样操作,然后进行卷积计算。因扩展路径会扩大输出特征图像的分辨率,为精确化上采样特征图像,在扩展路径中采用跳跃连接将其收缩路径中的高分辨率特征图像相结合。模型的输出为图像蒙版,用于表示不同的要素。

图1

图1   U-Net网络结构

Fig.1   U-Net network architecture


VGGNet[26]于2014年被牛津大学计算机视觉组和Google DeepMind提出,并在2014年ILSVRC比赛中取得定位任务冠军和分类任务亚军。VGGNet验证了网络深度的增加可提高网络的性能,其核心思想是采用较小的卷积核来增加网络深度,3×3的卷积核是最小的能够捕捉八邻域信息的卷积核,且多个3×3的卷积核比单个大尺寸的卷积核具有更多的非线性函数和更少的参数。因此,VGGNet被广泛的用来提取图像特征。VGG16由16层组成,如图2所示,图中Conv2D代表卷积计算,MaxPooling为最大池化操作,Flatten将计算结果转化为一维向量,Dense为全连接层。VGG16包含13个卷积层和4个最大池化层与3个全连接层,其中每个卷积层采用RELU激活函数,其中每个卷积层采用的都是3×3的卷积核,经历第一个卷积计算后产生64个通道的特征图,随着网络层数的加深,在经历每一次的池化计算后,卷积计算得到的通道数翻倍,直到其通道数达到512后,其余的卷积操作不会再增加特征图的通道数。

图2

图2   VGG16网络结构

Fig.2   VGG16 Network Architecture


2.2 Batch Normalization、ELU与Dropout

因深层神经网络在做非线性变换前的激活函数输入值会随着网络深度加深,或在训练过程中其分布逐渐发生偏移或变动,导致其整体分布向非线性函数取值区间的上下限靠近,从而致使反向传播时低层神经网络的梯度消失。针对该梯度消失问题,批规范化[27](Batch Normalization,简称BN)通过一定的规范化手段,固定每层网络输入特征的均值与方差,可解决梯度弥散,提升训练速度与收敛速度,增加分类效果,较好防止过拟合。

随机失活(Dropout)[28]使某个神经元的激活值以一定的概率p停止工作,降低了网络神经元之间相互复杂的共适应关系,使模型泛化性更强,不太依赖某些局部的特征,从而防止过拟合现象。

指数线性单元[29](ELU),融合了sigmoid与RELU,其函数如图3所示,左侧具有软饱和性,右侧具有无饱和性,右侧线性部分可以使ELU缓解梯度消失,左侧非线性部分使ELU对于输入的变化或噪声更具鲁棒性,使神经网络具有更快的收敛速度。

图3

图3   ELU函数

Fig.3   ELU function


2.3 本文实验网络结构

实验网络结构如图4所示,实验将去除全连接层的VGG16网络结构作为U-Net网络的编码器,并在解码路径的每层卷积计算后增加BN,从而达到了增大梯度,提升训练速度与收敛速度,增加分类的效果,防止过拟合。网路的解码路径与其编码路径相对应,使用上采样将特征图像大小扩大至原来两倍,并在上采样计算后,将上采样的计算输出与解码器相对应的输出部分进行串联(Concatenate),最后增加Dropout层,使其不太过于依赖某些局部特征,从而达到防止过拟合的效果,同时采用与其编码路径对应的卷积计算。采用ELU作为所有3×3卷积计算的激活函数,加快实验网络的收敛速度。

图4

图4   实验网络结构

Fig.4   Experimental network structure


3 实验与结果分析

3.1 实验数据

实验数据集采用TGRS2017数据集[25],包含224幅Google Earth影像,影像大小大于600×600,空间分辨率为1.2 m/像素,数据集涵盖城市、郊区和农村地区,且图像背景较为复杂。随机挑选20幅影像作为测试数据集,其余数据被随机分为两部分,其中80%用于训练网络模型,20%用于验证训练的模型,为方便模型训练,将影像规范化为512×512大小。为增强训练样本,对训练数据集进行旋转90°、180°、270°和镜像的处理。本文实验模型参数如表1所示。

表1   实验参数

Table 1  Experimental parameters

参数名称参数值
学习率0.000 1
优化器Adam
损失函数binary_crossentropy
Batchsize2
Epochs35
Dropout(keep_prob)0.5

新窗口打开| 下载CSV


3.2 实验结果分析

为验证本文的道路提取效果,以及数据扩充对实验的影响,采用总体分类精度和Kappa系数来进行精度验证,评价效果。总体分类精度是正确分类的像元个数除以总像元个数,Kappa系数的计算基于混淆矩阵,其数值一般处于[0,1],当Kappa系数位于[0.61,0.80],表示该实验结果与真实值具有高度的一致性,当Kappa系数位于[0.81,1],表示该实验结果与真实值几乎完全一致。

3.2.1 数据扩充前后对比实验

U-Net可以从较小的训练数据集中进行学习,但对于深度学习而言,训练数据集的完整性、准确性与丰富性对实验效果有着较高的影响,丰富且高质量的训练数据可以训练出更好的模型。获取大量的训练数据需要耗费相当大的人力与物力,且某些训练数据获取与制作存在困难,因此需要采用一些方法,对已有的训练数据进行扩充,解决训练数据缺乏的问题,提升模型的泛化性和准确性。其中,对图像采用旋转与镜像的操作,是一种常用的数据扩充方式,扩充后的数据集是同一目标图像在不同角度的视觉表示。

为探究数据集对本实验的影响,本文建立了数据扩充前后的训练数据集,分别在实验网络中训练模型。实验结果如图5所示,总体分类精度与Kappa系数如表2所示。

图5

图5   数据扩充前后实验结果

Fig.5   Experimental results before and after data expansion


表2   数据扩充前后实验

Table 2  Experiment before and after data expansion

区域扩充后未扩充
总体分类精度/%Kappa系数总体分类精度/%Kappa系数
A99.130.9498.400.89
B95.320.8393.590.76

新窗口打开| 下载CSV


实验结果表明,数据集扩充后,提取效果有较好的提升。在区域A中,将建筑物误分为道路的区域,在数据扩充后,该区域分类正确;区域B中,数据扩充前对细小道路的提取效果不佳,数据扩充后,断裂部分减少。综上,数据扩充后,实验精度明显提升,该方法的总体分类精度提升1.23%,Kappa系数提升0.06。由此可见,实验数据的合理扩充对实验效果有着较好的提升,可以提升其网络模型的泛化学习能力。

3.2.2 与其他算法对比实验

为验证实验效果,本文将数据集扩充后,在同等实验条件和数据集下,将其与基于Encoder-Decoder网络的遥感影像道路提取方法[13]和U-Net网络[21]进行对比实验,其对比实验效果如图6所示,总体分类精度与Kappa系数如表3所示。

图6

图6   道路对比实验提取结果

Fig.6   Road comparison experiment extraction results


表3   不同算法对比实验

Table 3  Comparison of different algorithms

区域本文文献[13]U-Net[21]
总体分类精度/%Kappa系数总体分类精度/%Kappa系数总体分类精度/%Kappa系数
a98.010.9197.390.8997.160.88
b98.420.9397.840.9096.910.87
c97.970.9097.890.9097.390.88
d97.680.9197.200.9097.530.91

新窗口打开| 下载CSV


实验结果表明,基于Encoder-Decoder网络的遥感影像道路提取方法[13]的提取结果,区域a~d均存在较多孤立点,区域b存在少量的邻近道路粘连现象,区域c存在断裂道路。U-Net[21]提取结果的孤立点数量较少,区域b存在邻近道路的粘连与部分细小道路提取效果不佳的现象,区域c道路边缘的提取效果不佳,区域d道路结构信息提取不完整。相比以上两种方法,本文方法提取结果中的孤立点与邻近道路的粘连现象极少,能够较好地提取细小道路,准确地分割道路边缘,更加完整地保存道路的细节信息。

本文所改进方法的总体分类精度在98%左右,Kappa系数在0.9以上,说明该方法提取的道路结果与真实值几乎完全一致。与基于Encoder-Decoder网络的遥感影像道路提取方法[13]和U-Net[21]方法相比,总体分类精度分别提升0.44%和0.77%,Kappa系数分别提升0.02和0.03。对比3种算法的提取结果,本文的总体精度和Kappa系数均高于其余两种算法,证明本文方法的提取结果更加可靠,可将其应用在实际生产工作中。

4 结 语

针对现有算法对高分辨率遥感影像的道路信息提取不完整,且存在漏提、错提、断裂等问题,利用U-Net网络较强的图像分割能力,提出了一种改进U-Net的高分辨率影像道路提取方法。该方法将VGG16作为网络编码结构,并在编码路径中添加BN,解码路径添加Dropout层,选用ELU激活函数,较好地解决了神经网络训练中出现的过拟合问题。实验结果表明,数据集的扩充有助于提高道路提取结果的准确度,具体表现在孤立点与断裂部分的减少;此外,该方法可以通过计算机自主学习道路的复杂抽象特征,避免了传统算法人工确定参数造成的主观影响,进一步提高了道路提取的准确度,较好地解决了错提、漏提与道路断裂等问题。该方法的道路提取平均Kappa系数大于0.9,与其他方法相比,道路的提取结构更加完整。

本文方法存在以下几点不足,首先,对建筑密集、阴影及树木遮挡区域的提取效果欠佳;其次,该方法受训练数据集的影响较大,且单一模型提升的精度有限。综上所述,训练数据的有效扩充,探究多模型集成的遥感影像道路提取,将是进一步的研究方向。

参考文献

Cheng G, Wang Y, Xu S, et al.

Automatic Road Detection and Centerline Extraction via Cascaded End-to-End Convolutional Neural Network

[J]. IEEE Transactions on Geoscience & Remote Sensing, 2017, 55(6):3322-3337. doi: 10.1109/TGRS.2017.2669341.

[本文引用: 1]

Cheng Jianghua, Gao Gui, Xishu Ku, et al.

Summary of Road Network Extraction Methods for SAR Images

[J]. Chinese Journal of Image Graphics, 2013, 18(1): 11-23.

[本文引用: 1]

程江华, 高贵, 库锡树,.

SAR图像道路网提取方法综述

[J]. 中国图象图形学报, 2013, 18(1):11-23.

[本文引用: 1]

Feng Peng, Gao Feng.

Summary of Road Information Extraction Methods in High-Score Remote Sensing Images

[J]. Modern Electronic Technology, 2015, 38 (17): 53-57.

[本文引用: 1]

冯鹏, 高峰.

高分遥感影像中道路信息提取方法综述

[J]. 现代电子技术, 2015, 38(17):53-57.

[本文引用: 1]

Zhang Yonghong, He Jing, Bingxi, et al.

A Review of Road Extraction Methods from Remote Sensing Images

[J]. Computer Engineering and Applications, 2018,54(13):1-1051.

[本文引用: 1]

张永宏, 何静, 阚希,.

遥感图像道路提取方法综述

[J]. 计算机工程与应用, 2018,54(13):1-1051.

[本文引用: 1]

Gomez R B.

Hyperspectral Imaging: A Useful Technology for Transportation Analysis

[J]. Optical Engineering, 2002, 41(41):2137-2143. doi: 10.1109/TGRS.2017.2669341.

[本文引用: 1]

Luo Qingzhou, Yin Qiu, Kuang Dingbo.

Research on Road Extraction Method Combining Spectrum and Shape Characteristics

[J]. Remote Sensing Technology and Applications, 2007, 22 (3): 339-344.

[本文引用: 1]

罗庆洲, 尹球, 匡定波.

光谱与形状特征相结合的道路提取方法研究

[J]. 遥感技术与应用, 2007, 22(3):339-344.

[本文引用: 1]

Cai Hongyue, Yao Guoqing.

Optimized Method for Road Extraction from High Resolution Remote Sensing Image based on Watershed Algorithm

[J]. Land and Resources Remote Sensing, 2013, 25 (3): 25-29.

[本文引用: 1]

蔡红玥, 姚国清.

基于分水岭算法的高分遥感图像道路提取优化方法

[J]. 国土资源遥感, 2013, 25(3):25-29.

[本文引用: 1]

Yu Changhui, Yi Yaohua.

Object-based Road Extraction in Remote Sensing Image Using Markov Random Field

[J]. Journal of Wuhan University (Information Science Edition), 2011, 36 (5): 544-547.

[本文引用: 1]

余长慧, 易尧华.

利用MRF方法的高分辨率影像道路提取

[J]. 武汉大学学报(信息科学版), 2011, 36(5):544-547.

[本文引用: 1]

Li M, Stein A, Bijker W, et al.

Region-based Urban Road Extraction from VHR Satellite Images Using Binary Partition Tree

[J]. International Journal of Applied Earth Observation & Geoinformation, 2016, 44:217-225. doi: j.jag. 2015. 09.005.

[本文引用: 1]

Cao Yungang, Wang Zhipan, Shen Li, et al.

Fusion of Pixel-based and Object-based Features for Road Centerline Extraction from High-resolution Satellite Imagery

[J]. Journal of Surveying and Mapping, 2016, 45 (10): 1231-1240.

[本文引用: 1]

曹云刚, 王志盼, 慎利,.

像元与对象特征融合的高分辨率遥感影像道路中心线提取

[J]. 测绘学报, 2016, 45(10):1231-1240.

[本文引用: 1]

Das S, Mirnalinee T T, Varghese K.

Use of Salient Features for the Design of a Multistage Framework to Extract Roads from High-Resolution Multispectral Satellite Images

[J]. IEEE Transactions on Geoscience & Remote Sensing, 2011, 49(10):3906-3931. doi: 10.1109/TGRS.2011.2136381.

[本文引用: 1]

Liu Xiao, Wang Guanghui, Yang Huachao, et al.

Road Extraction from Remote Sensing Image based on Fully Convolutional Networks

[J]. Remote Sensing Information, 2018, 33 (1): 69-75.

[本文引用: 1]

刘笑, 王光辉, 杨化超,.

全卷积神经网络遥感影像道路提取方法

[J]. 遥感信息, 2018, 33(1):69-75.

[本文引用: 1]

He Hao, Wang Shicheng, Yang Dongfang, et al.

A Road Extraction Method for Remote Sensing Image based on Encoder-decoder Network

[J]. Journal of Surveying and Mapping, 2019, 48(3): 330-338.

[本文引用: 5]

贺浩,王仕成,杨东方,.

基于Encoder-Decoder网络的遥感影像道路提取方法

[J].测绘学报,2019,48(3):330-338.

[本文引用: 5]

Kampffmeyer M, Salberg A B, Jenssen R.

Semantic Segmentation of Small Objects and Modeling of Uncertainty in Urban Remote Sensing Images Using Deep Convolutional Neural Networks

[C]∥ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2016: 1-9. doi: 10.1109/CVPRW.2016.90.

[本文引用: 2]

Zhong Z, Li J, Cui W, et al.

Fully Convolutional Networks for Building and Road Extraction: Preliminary Results

[C]∥ 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). IEEE, 2016: 1591-1594. doi: 10.1109/IGARSS.2016.7729406.

Fu G, Liu C, Zhou R, et al.

Classification for High Resolution Remote Sensing Imagery Using a Fully Convolutional Network

[J]. Remote Sensing, 2017, 9(5): 498. doi: 10.3390/rs9050498.

Maggiori E, Tarabalka Y, Charpiat G, et al.

Convolutional Neural Networks for Large-scale Remote-sensing Image Classification

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 55(2): 645-657. doi: 10.1109/TGRS. 2016. 2612821.

[本文引用: 1]

Kestur R, Farooq S, Abdal R, et al.

UFCN: A Fully Convolutional Neural Network for Road Extraction in RGB Imagery Acquired by Remote Sensing from An Unmanned Aerial Vehicle

[J]. Journal of Applied Remote Sensing, 2018, 12(1): 016020. doi: 10.1117/1.JRS.12.016020.

[本文引用: 1]

Zhang Z, Liu Q, Wang Y.

Road Extraction by Deep Residual U-net

[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(5): 749-753. doi: 10.1109/LGRS.2018.2802944.

[本文引用: 2]

Panboonyuen T, Vateekul P, Jitkajornwanich K, et al.

An Enhanced Deep Convolutional Encoder-decoder Network for Road Segmentation on Aerial Imagery

[C]∥ International Conference on Computing and Information Technology. Springer, Cham, 2017: 191-201. doi: 10.1007/978-3-319-60663-7_18.

[本文引用: 1]

Ronneberger O, Fischer P, Brox T.

U-Net: Convolutional Networks for Biomedical Image Segmentation

[C]∥ International Conference on Medical Image Computing & Computer-assisted Intervention, 2015,9351:234-241. doi: 10.1007/978-3-319-24574-4_28.

[本文引用: 6]

Wang YuYang YiWang Baoshanet al.

Building Segmentation in High Resolution Remote Sensing Image by Deep ResNet

[J] .Remote Sensing Technology and Application2019344):736-747.

[本文引用: 1]

王宇杨艺王宝山.

深度残差神经网络高分辨率遥感图像建筑物分割

[J].遥感技术与应用,2019,34(4):736-747.

[本文引用: 1]

Cui GangWu JinshengYu Zhenet al.

Comparison Analysis on Wheat Mapping Using Deep Learning Algorithm from Different Satellite Data Source

[J]. Remote Sensing Technology and Appli cation,2019344):748755.

崔刚

吴金胜,于镇,.

深度学习对不同分辨率影像冬小麦识别的适用性研究

[J].遥感技术与应用,2019,34(4):748-755.

[本文引用: 1]

Zhao H S, Shi J P, Qi X J, et al.

Pyramid Scene Parsing Net⁃ work

[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.20172881-2890. doi: 10.1109/CVPR.2017.660.

[本文引用: 1]

Cheng G, Zhu F, Xiang S, et al.

Road Centerline Extraction via Semisupervised Segmentation and Multidirection Nonmaximum Suppression

[J]. IEEE Geoscience & Remote Sensing Letters, 2017, 13(4):545-549. doi: 10.1109/LGRS. 2016. 2524025.

[本文引用: 2]

Simonyan K, Zisserman A.

Very Deep Convolutional Networks for Large-scale Image Recognition

[J]. arXiv Preprint arXiv:1409.1556, 2014.

[本文引用: 1]

Ioffe S, Szegedy C.

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

[J]. arXiv Preprint arXiv:1502.03167, 2015.

[本文引用: 1]

Srivastava N, Hinton G, Krizhevsky A, et al.

Dropout: A Simple Way to Prevent Neural Networks from Overfitting

[J]. The Journal of Machine Learning Research, 2014, 15(1): 1929-1958.

[本文引用: 1]

Djork-Arné Clevert, Unterthiner T, Hochreiter S.

Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)

[J]. arXiv Preprint arXiv:1511.07289, Computer Science, 2015.

[本文引用: 1]

/