摘要
针 对 目 前 高 分 辨 率 遥 感 建 筑 物 提 取 分 割 尺 度 失 真 和 边 界 不 完 整 等 问 题 , 提 出 了 一 种 带 洞 型 U-
Net++网络模型用于建筑物语义分割的方法。该方法顾及全卷积网络在下采样提取特征的过程中
损失的遥感影像细节特征,通过必要的长连接和短连接还原了下采样带来的信息损失,利用空洞卷
积使模型能够适应不同尺度的遥感影像建筑物提取。在 Massachusetts 建筑物数据集上的实验结
果表明,该方法能够更完整提取遥感影像中的建筑物信息,在测试集上准确率达到了 89.37%,平
均交并比(intersection over union,IoU)达到了 72.35%。
Abstract
In view of the current problems of high-resolution remote sensing building
extraction and segmentation, such as scale distortion and boundary incompleteness,
we propose a U-Net++ network model with holes for semantic segmentation of
buildings. This method takes into account the detail features of remote sensing
images lost in the process of extracting features by downsampling based on full
convolutional network(FCN). It restores the information loss by downsampling
through long and short connections. The model can adapt to building extraction at
different scales by dilated convolution. The experimental results on the
Massachusetts building dataset show that, this method can extract building
information from remote sensing images more completely, and its accuracy rate on
the test set reaches 89.37%, and the mean intersection over union (IoU) reached
72.35%.
译
关键词
遥感影像; 建筑物提取; U-Net++; 空洞卷积; 语义分割
Keywords
remote sensing image; building extraction; U-Net++; dilated convolution; semantic
segmentation
译
建筑物是遥感影像反映地理信息的重要地物目标,利用遥感影像提取建筑物对地表覆盖分类、城市
规划、地理信息数据库更新等具有重要意义。传统的监督分类提取大小、色彩、形状各不相同的建
筑物,很难得到满意的结果,随着深度学习技术的快速发展,利用语义分割来提取遥感影像中的建
筑 物 成 为 十 分 有 效 的 方 法
[1]
。 Long 等
[2]
在 卷 积 神 经 网 络 ( convolutional neural network ,
CNN) 内部使用下 采样和上采 样结合的 方 式提出了 全 卷积网络 (fully convolutional networks,
FCN)网络,成功实现了图像的语义分割。随后 SegNet
[3]
、U-Net
[4]
、PSPNet
[5]
、U-Net++
[6]
等
神经网络相继出现。季顺平等
[7]
利用改进的 U-Net 网络在自己构建的大范围和高精度 WHU 数据集
上提取建筑物,但该方法不适用于在少量样本数据上提取建筑物;范荣双等
[8]
利用 CNN 结合主成
分变换和纹理特征提取的方法在遥感影像上提取建筑物,但该方法精度较低且操作计算繁琐;贺浩