您的位置:首页 > 游戏 > 游戏 > 论文(六):Fire-Net: A Deep Learning Framework for Active Forest Fire Detection

论文(六):Fire-Net: A Deep Learning Framework for Active Forest Fire Detection

2024/11/9 9:40:29 来源:https://blog.csdn.net/qq_51976293/article/details/142301804  浏览:    关键词:论文(六):Fire-Net: A Deep Learning Framework for Active Forest Fire Detection

文章目录

  • 1.Introduction
  • 2.Study Area
    • 2.1Landsat-8 Dataset
    • 2.2Inventory data
  • 3.Methodology
    • 3.1Image Pre-processing
    • 3.2Proposed Deep Learning Architecture (Fire-Net)
      • 3.2.1Convolution Layers
      • 3.2.2 Evaluation Indices/methods or accuracy assessment.
  • 4.Results
    • 4.1 Australian Forest
    • 4.2Central Africa Forest Fire
    • 4.3Brazilian’s Forest Fire
    • 4.4Chernobyl’s Forest Fire
  • 5.Discussion


  论文名称:Fire-Net: A Deep Learning Framework for Active Forest Fire Detection(Fire-Net:用于主动森林火灾检测的深度学习框架)
  论文目的:提出名为Fire-Net的深度学习框架,在Landsat-8影像集上训练,用于检测活跃的火灾和燃烧的生物质。模型总体准确率为97.35%,且能检测小型活跃火灾。

1.Introduction

  一般地,传统火灾探测方法主要基于三个原则:

  • 1.使用阈值方法检测高温像素。
  • 2.分析像素邻域的方法,将高温像素与邻域像素进行比较。
  • 3.基于产生的烟雾和移动的火柱检测火灾像素。

这些方法大多依赖于传统的机器学习方法。本文选择了Landsat-8卫星数据,与MODIS、VIRIIS 和 Sentinel-3 等其他卫星数据集相比,该数据集有更高的空间分辨率,这也提高了检测小型火灾的成本。本研究提出一种基于深度学习的新型主动火灾探测方法。此方法将 Landsat-8 卫星影像中的 RGB 和热影像组合在一起,利用卷积神经网络架构的强大功能来检测深度特征。主要成果如下:

  • 提出基于深度学习的主动火灾检测框架——Fire-Net。
  • 将空间和光谱特征相结合,不再使用单一的光谱特征进行检测。
  • 利用 residual 和 depthwise 以及 separable 卷积块,并为不平衡问题引入新的损失函数。

2.Study Area

  本模型使用了以下五个研究区域,这些区域有不同的气候条件等环境特征,以期生成通用的火灾检测模型:
在这里插入图片描述

  北美森林2013-2013年有四个活跃火灾区:
在这里插入图片描述
  澳大利亚森林2019-2020年有6个活跃火灾区:
在这里插入图片描述

其中,使用北美和澳大利亚的火灾数据训练模型,使用其余地区数据进行模型的测试。

2.1Landsat-8 Dataset

  Landsat-8 卫星传感器能够在 11 个光谱波段捕获数据,空间分辨率为 15 米(全色)、30 米(可见光、NIR 和 SWIR)和 100 米(热)。此外,该传感器以 16 天的时间分辨率从地球上收集数据集。由于这项研究需要 4 个光谱波段(R、G、B 和热波段),我们选择了标准的地形校正 Level 1 T 数据集。

2.2Inventory data

  从 Landsat-8 数据集中提取相应的活动火灾位置,用于训练(65% 的样本)、验证(15% 的样本)和测试(20% 的样本)。在这项研究中,生成了 722 个大小为 256 × 256 像素的小型图像(简称图像块),分别由 469、109 和 144 个图像块分别用于训练、验证和测试模型。

3.Methodology

  使用北美和澳大利亚的火灾数据作为 Fire-Net 深度学习算法和多尺度残差学习网络 (MSR-U-Net) 的训练和验证样本,提出了这种基于深度学习的双流像素分类 (Fire-Net) 方法,用于检测 Landsat-8 影像中的活跃火灾。这种网络使用编码器-解码器架构进行火灾探测,由于Landsat-8 数据集有更高的空间分辨率与火灾结构,故提出了一种双流深度特征提取器架构,即Fire-Net框架由两个深度特征提取器通道组成。第一个通道用于检测火灾,而第二个通道用于检测背景像素和非火灾物体。网络结构如下:
在这里插入图片描述

  • 1.数据预处理:将Landsat-8图像分割为256x256大小的图像块(包含R、G、B和热波段,为四通道),并将数据集划分为训练、验证、测试数据集。
  • 2.将训练、验证数据集用于训练模型以获得模型最佳权重,测试数据集用于评估模型性能,并停止条件设为250轮。
  • 3.通过第二各(澳大利亚野火,各部分未参与训练)、第三个(亚马逊雨林)、第四个(中非)和第五个研究区域(切尔诺贝利)来检测模型。

3.1Image Pre-processing

  对Landsat-8 L-T产品图像进行预处理(辐射矫正、正射校正等),并将图像拆分为大小为 256 × 256 像素的图像块,热波段需要转化为辐射,然后转化为亮温以输入Fire-Net模型中训练。

3.2Proposed Deep Learning Architecture (Fire-Net)

  双流特征深度学习方法基于多尺度残差卷积神经网络,其利用了点/深度卷积、残差和多尺度卷积块的优势。有:

  • 深度/点卷积:有效减少模型参数数量和计算成本。
  • 残差块:防止梯度消失问题。
  • 多尺度块:提高模型对尺寸变化的鲁棒性,实现小型火灾的探测性能。

架构如下,共包含两个流用于深度特征提取:
在这里插入图片描述

  • 2D-multi-scale-shallow-block:二维多尺度浅层。
  • 2D-multi-scale-residual-block:二维多尺度残差层。
  • 2D-residual-block:二维残差层。
  • 2D-convolution-block:二维卷积层。
  • 2D-upsampling-block:二维上采样层。
  • 2D-max-pooling-block:二维最大池化层。

首先使用多尺度二维卷积层提取浅层特征(2D-multi-scale-shallow-block),该特征会被送到两个深度特征提取器通道中。由于小火可以覆盖小区域,因此在提取深层特征之前,我们对第一个通道使用了 2 倍的速率上采样(2D-upsampling-block),该通道还结合了残差块和多尺度残差块(2D-residual-block、2D-multi-scale-residual-block)。第二个通道不使用上采样,直接通过残差块和多尺度残差块,最后通过求和算子对两通道提取的深层特征进行融合,并将得到的单特征图送到2D卷积层并得到标签。
在这里插入图片描述

3.2.1Convolution Layers

  卷积层主要用于从输入数据中提取高级深度特征,Fire-Net架构主要采用三种策略:

  • 使用多尺度核卷积(不同核大小的卷积核)实现对不同火灾规模的鲁棒性。
  • 使用残差层防止梯度消失或爆炸的问题。
  • 使用深度/点级卷积块,这种卷积层为每个输入特征只考虑一个滤波器。

  Fire-Net 架构中三个卷积层的结构如下:
【1】标准卷积核
在这里插入图片描述

【2】逐点卷积
在这里插入图片描述

【3】逐层卷积
在这里插入图片描述
本实验使用混合损失函数(权重-二进制-交叉-熵-骰子,weight-binary-cross-entropy - dice,WBCED)作为损失函数,其对小目标更有效。计算方式如下:
在这里插入图片描述
其中,p为预测值,y为真实值。Fire-Net 架构由自适应矩估计 (Adam) 优化器通过反向传播进行训练,其中权重使用 Golorot 初始化器进行初始化。用于训练 Fire-Net 的超参数如下:

  • Batch-size=7
  • Learning rate=0.001
  • Number of Epochs:250

在Tensorflow v2.4.1和Keras v2.4.3上实现。

3.2.2 Evaluation Indices/methods or accuracy assessment.

  将Fire-Net与MSR-U-Net、五种机器学习方法(KNN、SVM、MLP、RF、XGBoost)的效果进行对比,其中,MSR-U-Net在将多尺度核卷积滤波器与残差块深度特征提取相结合方面与 Fire-Net具有相似性。

  • KNN:k=4。
  • SVM:penalty coefficient=10,Radial Basis=1000。
  • MLP:共有两个隐藏层,分别有40、30个神经元。
  • RF:树的数量=93,分割特征数量=3。
  • XGBoost:估计器数量=105,最大深度=4,eta=0.03,最小子权重=1,子样本=0.8,colsample-bytree= 0.8。

4.Results

4.1 Australian Forest

  澳大利亚森林火灾检测结果如下图,其中Reference map表示参考地图:
在这里插入图片描述
两种深度学习方法都检测到了火灾区域,但MSR-U-Net的火灾边界像素出现误判。两种模型性能对比如下表:
在这里插入图片描述

  • FPR(假阳性率):预测错的正样本占全体负样本的比率。

可见,MSR-U-Net的MD值较低,FPR值较高。可见,Fire-Net 模型在主动火灾探测方面的错误率较低。其他机器学习算法的实验结果:
在这里插入图片描述
尽管 SVM 的 OA 最准确 (99.03%),但与精度、召回率和 F1 分数等其他指标相比,其表现较低。SVM 的 MD 指数 (99.98%) 表明它不能有效检测活跃的火灾。另一方面,与其他算法相比,RF 和 XGBOOST 表现出良好的性能。然而,总的来说,Fire-Net 的表现优于所有这些算法,因为它们在 7 个评估指标中缺乏稳健性、正确性和确定性。

4.2Central Africa Forest Fire

在这里插入图片描述
中非森林火灾区域较小,两种方法都能够检测到存在错误分类情况的活跃火灾。将图像放大:
在这里插入图片描述
由上图可见,Fire-Net覆盖率更多相关的火灾区域,检测到了MSR-U-Net 未检测到的几乎所有相关火灾像素。两个模型的数据如下:
在这里插入图片描述
  由上表可见,两种方法在检测非火灾像素方面都表现良好,而在检测火灾像素时,它们的准确性有所下降。对于此数据集,MD 率很高,并且两个网络都专注于非 fire 像素。KC 值较低表示两个网络的性能可靠性降低。

在这里插入图片描述
  由上表可见,五种模型大多检测到了FPR 值低于 1% 的非活跃火灾。此外,较低的 Precision 和 F1-Scores 值表明,与 Fire-Net 相比,这 5 种方法中没有看到所有 7 个评估指标之间的一致性和平衡性。

4.3Brazilian’s Forest Fire

在这里插入图片描述
同样将上图放大:
在这里插入图片描述
可以看出,两种方法都成功地检测到了火灾,Fire-Net 的性能优于 MSR-U-Net。Fire-Net 的准确率为 95.98%,召回率为 98.04%,接近零 FPR,F1 分数为 97.0%。
在这里插入图片描述
  从五种机器学习模型性能中可知,OA 基本相同,约为 99%。另一方面,精确度低于 60%,FPR 率低 (低于 1%),MD 率较高。这些表示主动火灾探测较弱。因此,这 5 种机器学习方法在该区域无法与 Fire-Net 相提并论。

4.4Chernobyl’s Forest Fire

在这里插入图片描述
同样将上图放大:
在这里插入图片描述
虽存在云层与小规模火灾,但两个网络性能仍良好。其中,MSR-U-Net 未能检测到少量活跃的火灾,Fire-Net模型仍显示出更高的准确率、召回率和 f1 分数。

5.Discussion

  Fire-Net模型与其他火灾检测方法的性能比较:
在这里插入图片描述
深度学习方法最重要的问题之一是数据集的平衡。火灾区域覆盖的区域非常小,而非火灾区域在场景中占主导地位。为了解决这个问题,本研究引入了新颖的损失函数,其结合骰子损失和加权二进制交叉熵。深度学习方法可以自动提取深度信息特征。值得注意的是,所提出的方法只使用了四个波段(红、绿、蓝和热)。这些波段是大多数 RS 卫星影像中最常见的波段和广泛可用的数据。因此,该方法可以由其他具有更高时间分辨率的卫星用于主动火灾探测和森林管理,以实现实时和连续的火灾监测。
  大多数大多数提出的主动火灾探测方法都是基于阈值的,由于环境条件不同且森林布局多样,因此为决策设定恒定阈值是不切实际的。从深度学习的角度来看,这两种方法都基于深度学习,不需要对阈值进行硬编码。相反,在训练步骤中,每个网络都会通过优化过程发现连接每个节点的最佳权重。所有地区的可转移性都以高准确度清晰显示。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com