• 中文核心期刊
  • 中国科技核心期刊
  • ISSN 1007-6336
  • CN 21-1168/X

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于STL的海表面温度预测算法

贺琪 查铖 宋巍 戚福明 郝增周 黄冬梅

引用本文:
Citation:

基于STL的海表面温度预测算法

    作者简介: 贺 琪(1979-),女,副教授,博士,主要从事于海洋大数据存储,云计算,E-mail: qihe@shou.edu.cn;
    通讯作者: 戚福明,E-mail: seven.chi@icloud.com
  • 基金项目: 海洋大数据分析预报技术研发基金项目(2016YFC1401907);国家海洋局数字海洋科学技术重点实验室开放基金项目(B201801029);上海市高校特聘教授(东方学者)项目(TP2016038);上海市科委部分地方院校能力建设项目(17050501900)
  • 中图分类号: TP18

Sea surface temperature prediction algorithm based on STL model

  • 摘要: 海表面温度是海洋科学研究中重要的参数之一,有效预测海表面温度对海洋灾害预警、海洋经济以及海洋生态环境具有重大意义。针对海表面温度具有周期性、持续性、非平稳性和非线性的特性,首先利用基于局部加权回归的周期趋势分解方法将原始海表面温度序列分解为周期项、趋势项和余项,挖掘海表面温度的潜在信息并去除序列中的随机噪音;再结合长短期记忆网络模型的优点,搭建神经网络来预测未来五天内的海表面温度。通过与其它模型的预测效果进行对比,实验结果表明,本文方法在预测海表面温度时具有较好的预测精度,能够实现海表面温度的有效预测。
  • 图 1  数据采集位置分布

    Figure 1.  Location distribution of data collection

    图 2  基于STL模型的SST预测流程

    Figure 2.  SST prediction flow chart based on STL model

    图 3  STL内循环过程

    Figure 3.  The schematic diagram of the internal cycle of STL

    图 4  LSTM细胞单元结构

    Figure 4.  LSTM cell unit structure diagram

    图 5  原始SST序列数据

    Figure 5.  Raw SST sequence data

    图 6  季节分量

    Figure 6.  The seasonal component of STL

    图 7  趋势分量

    Figure 7.  The trend component of STL

    图 8  剩余分量

    Figure 8.  The residual component of STL

    表 1  SVM、GRU、LSTM、STL-GRU和STL-LSTM的RMSE指标

    Table 1.  RMSE for SVM, GRU, LSTM, STL-GRU and STL-LSTM

    SVMGRULSTMSTL-GRUSTL-LSTM
    11.030.550.500.490.43
    20.790.660.570.510.46
    31.040.640.550.560.50
    41.090.690.620.600.55
    51.340.620.660.600.58
    Avg1.060.630.580.550.50
    下载: 导出CSV

    表 2  SVM、GRU、LSTM、STL-GRU和STL-LSTM的MAPE指标

    Table 2.  MAPE for SVM, GRU, LSTM, STL-GRU and STL-LSTM

    SVMGRULSTMSTL-GRUSTL-LSTM
    12.091.441.261.241.05
    21.921.831.411.341.19
    32.511.791.501.581.37
    42.781.971.661.701.50
    53.361.842.011.801.77
    Avg2.531.781.571.531.38
    下载: 导出CSV
  • [1] 肖 林, 史 剑, 蒋国荣, 等. 台风背景下海浪对海表流场和海表温度的影响[J]. 海洋通报, 2018, 37(4): 396-403. doi: 10.11840/j.issn.1001-6392.2018.04.005
    [2] MENDOZA V M, VILLANUEVA E E, ADEM J. Numerical experiments on the prediction of sea surface temperature anomalies in the Gulf of Mexico[J]. Journal of Marine Systems, 1997, 13(1/2/3/4): 83-99.
    [3] REPELLI C A, NOBRE P. Statistical prediction of sea-surface temperature over the tropical Atlantic[J]. International Journal of Climatology, 2004, 24(1): 45-55. doi: 10.1002/joc.982
    [4] ZAMBON D, GRATTAROLA D, LIVI L, et al. Autoregressive models for sequences of graphs[C] //2019 International Joint Conference on Neural Networks. Budapest: IEEE, 2019.
    [5] ALBARRACIN O Y E, ALENCAR A P, LEE HO L. Generalized autoregressive and moving average models: multicollinearity, interpretation and a new modified model[J]. Journal of Statistical Computation and Simulation, 2019, 89(10): 1819-1840. doi: 10.1080/00949655.2019.1599892
    [6] BAPTISTA M, SANKARARAMAN S, DE MEDEIROS I P, et al. Forecasting fault events for predictive maintenance using data-driven techniques and ARMA modeling[J]. Computers & Industrial Engineering, 2018, 115: 41-53.
    [7] VAPNIK V N. The nature of statistical learning theory[M]. New York: Springer, 1995: 988–999.
    [8] LINS I D, ARAUJO M, MOURA M D C, et al. Prediction of sea surface temperature in the tropical Atlantic by support vector machines[J]. Computational Statistics & Data Analysis, 2013, 61: 187-198.
    [9] 王甜甜, 刘 强. 基于BAS-BP模型的风暴潮灾害损失预测[J]. 海洋环境科学, 2018, 37(3): 457-463. doi: 10.12111/j.cnki.mes20180323
    [10] GRAVES A, MOHAMED A R, HINTON G. Speech recognition with deep recurrent neural networks[C] //Proceedings of 2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Vancouver: IEEE, 2013: 38.
    [11] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780. doi: 10.1162/neco.1997.9.8.1735
    [12] DEY R, SALEMT F M. Gate-variants of Gated Recurrent Unit (GRU) neural networks[C] //Proceedings of the IEEE 60th International Midwest Symposium on Circuits and Systems. Boston: IEEE, 2017.
    [13] ZHANG Q, WANG H, DONG J Y, et al. Prediction of sea surface temperature using long short-term memory[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(10): 1745-1749. doi: 10.1109/LGRS.2017.2733548
    [14] CLEVELAND W S, DEVLIN S J. Locally Weighted regression: an approach to regression analysis by local fitting[J]. Journal of the American Statistical Association, 1988, 83(403): 596-610. doi: 10.1080/01621459.1988.10478639
    [15] ROJO J, RIVERO R, ROMERO-MORTE J, et al. Modeling pollen time series using seasonal-trend decomposition procedure based on LOESS smoothing[J]. International Journal of Biometeorology, 2017, 61(2): 335-348. doi: 10.1007/s00484-016-1215-y
    [16] CRISTINA S, CORDEIRO C, LAVENDER S, et al. MERIS phytoplankton time series products from the SW Iberian peninsula (Sagres) using seasonal-trend decomposition based on loess[J]. Remote Sensing, 2016, 8(6): 449. doi: 10.3390/rs8060449
    [17] GARCÍA-MOZO H, OTEROS J A, GALÁN C. Impact of land cover changes and climate on the main airborne pollen types in Southern Spain[J]. Science of the Total Environment, 2016, 548/549: 221-228. doi: 10.1016/j.scitotenv.2016.01.005
    [18] CHEN G Y, CHEN P F, SHI Y J, et al. Rethinking the usage of batch normalization and dropout in the training of deep neural networks[J]. arXiv preprint arXiv: 1905.05928, 2019.
    [19] AGARWAL R, BURRUS C. Fast one-dimensional digital convolution by multidimensional techniques[J]. IEEE Transactions on Acoustics, Speech, and Signal Processing, 1974, 22(1): 1-10. doi: 10.1109/TASSP.1974.1162532
    [20] SHI W W, GONG Y H, TAO X Y, et al. Fine-grained image classification using modified DCNNs trained by cascaded softmax and generalized large-margin losses[J]. IEEE Transactions on Neural Networks and Learning Systems, 2019, 30(3): 683-694. doi: 10.1109/TNNLS.2018.2852721
    [21] HARA K, SAITO D, SHOUNO H. Analysis of function of rectified linear unit used in deep learning[C] //Proceedings of 2015 International Joint Conference on Neural Networks. Killarney: IEEE, 2015.
    [22] SCHWING A G, URTASUN R. Fully connected deep structured networks[J]. arXiv preprint arXiv: 1503.02351, 2015.
  • [1] 张颖高倩倩 . 基于极限学习机回归的海水Chl a浓度预测方法. 海洋环境科学, doi: 10.13634/j.cnki.mes20150119
    [2] 李正泉肖晶晶张育慧马浩 . 基于全球风场产品中国海表面风速变化分析. 海洋环境科学, doi: 10.13634/j.cnki.mes20160417
    [3] 张宜振韩震王新新李化良周玮辰 . 海面风矢量对不同极化状态海表面亮温的遥感影响研究. 海洋环境科学, doi: 10.13634/j.cnki.mes20160609
    [4] 张秀芝张拂坤邱金泉刘淑静王静张雨山 . 浓盐水排海对渤海湾盐度分布的影响预测. 海洋环境科学, doi: 10.13634/j.cnki.mes20160313
    [5] 宋晚郊董庆薛存金吴书超 . 热带及北太平洋海表温度与两类El Niño事件的关系. 海洋环境科学, doi: 10.13634/j.cnki.mes20160314
    [6] 陈志伟康建成顾成林徐勇汤明陆凯 . 近33 a西北太平洋极端海表温度事件的变化特征及与ENSO的关系. 海洋环境科学, doi: 10.12111/j.mes20190209
    [7] 王平陈伟斌邹文峰袁帅陈元宋丽娜 . 象山港潮余流结构及水体半交换时间数值研究. 海洋环境科学, doi: 10.13634/j.cnki.mes20180117
    [8] 钱国栋李明曲良任叙合迟杰 . 短期风化对渤海原油正构烷烃组分的影响. 海洋环境科学, doi: 10.13634/j.cnki.mes20150105
    [9] 王为民刘光兴陈洪举毛雪微衣晓燕 . 短期海洋酸化对黄海近岸浮游植物群落结构的影响. 海洋环境科学, doi: 10.13634/j.cnki.mes20160311
    [10] 冯倩刘强 . 基于SVM-BP神经网络的风暴潮灾害损失预评估. 海洋环境科学, doi: 10.13634/j.cnki.mes20170421
    [11] 苟露峰高强高乐华 . 基于BP神经网络方法的山东省海洋生态安全评价. 海洋环境科学, doi: 10.13634/j.cnki.mes20150318
    [12] 马镛张亦飞祁琪方欣郝春玲连娉婷 . 基于复杂网络的海洋生态系统压力影响量化方法及应用. 海洋环境科学, doi: 10.12111/j.mes20190319
    [13] 何世钧周媛媛张婷朱吉光何培民 . 基于主导因子的绿潮灾害预测方法研究. 海洋环境科学, doi: 10.12111/j.cnki.mes20180302
    [14] 杜元伟周雯秦曼王锐 . 基于网络分析法的海洋生态承载力评价及贡献因素研究. 海洋环境科学, doi: 10.12111/j.mes20180615
    [15] 王甜甜刘强 . 基于BAS-BP模型的风暴潮灾害损失预测. 海洋环境科学, doi: 10.12111/j.cnki.mes20180323
    [16] 范剑超王涛 . 基于非负矩阵分解和支持向量机的墨西哥湾溢油HJ-1星遥感图像分类. 海洋环境科学, doi: 10.13634/j.cnki.mes20150320
    [17] 徐炳丰张凌玲 . 表面综合散热系数对电厂温排水敏感性的研究. 海洋环境科学, doi: 10.13634/j.cnki.mes20150115
    [18] 陈晓亮沈永明崔雷姜恒志石峰 . 渤海风场的概率预测模型研究. 海洋环境科学, doi: 10.12111/j.mes20190115
    [19] 孙成志郑崇伟陈璇 . 全球SST的季节特征及长期变化趋势分析. 海洋环境科学, doi: 10.13634/j.cnki.mes20150512
    [20] 陈琛马毅胡亚斌张靖宇 . 一种自适应学习率的卷积神经网络模型及应用——以滨海湿地遥感分类为例. 海洋环境科学, doi: 10.12111/j.mes20190421
  • 加载中
图(8)表(2)
计量
  • 文章访问数:  89
  • HTML全文浏览量:  87
  • PDF下载量:  0
出版历程
  • 收稿日期:  2019-10-08
  • 录用日期:  2019-12-23
  • 网络出版日期:  2020-05-14

基于STL的海表面温度预测算法

    作者简介:贺 琪(1979-),女,副教授,博士,主要从事于海洋大数据存储,云计算,E-mail: qihe@shou.edu.cn
    通讯作者: 戚福明,E-mail: seven.chi@icloud.com
  • 1. 上海海洋大学 信息学院,上海 201306
  • 2. 上海必途信息技术有限公司,上海 201824
  • 3. 卫星海洋环境动力学国家重点实验室,自然资源部第二海洋研究所,浙江 杭州 310012
  • 4. 上海电力大学,上海 200090
基金项目: 海洋大数据分析预报技术研发基金项目(2016YFC1401907);国家海洋局数字海洋科学技术重点实验室开放基金项目(B201801029);上海市高校特聘教授(东方学者)项目(TP2016038);上海市科委部分地方院校能力建设项目(17050501900)

摘要: 海表面温度是海洋科学研究中重要的参数之一,有效预测海表面温度对海洋灾害预警、海洋经济以及海洋生态环境具有重大意义。针对海表面温度具有周期性、持续性、非平稳性和非线性的特性,首先利用基于局部加权回归的周期趋势分解方法将原始海表面温度序列分解为周期项、趋势项和余项,挖掘海表面温度的潜在信息并去除序列中的随机噪音;再结合长短期记忆网络模型的优点,搭建神经网络来预测未来五天内的海表面温度。通过与其它模型的预测效果进行对比,实验结果表明,本文方法在预测海表面温度时具有较好的预测精度,能够实现海表面温度的有效预测。

English Abstract

  • 海洋表面温度(sea surface temperature,简称SST)[1]不仅是全球大气系统中的一个重要参数,而且对海洋生态系统也有极大的影响。SST是赤潮、厄尔尼诺等海洋灾害发生的关键因子,同时它的变化还可以影响降雨的分布,从而引发洪涝灾害。准确预测SST能够为风暴潮、台风、赤潮等海洋灾害的精准预报提供有效支撑。现今SST预测方法主要分为两类:(1)数值预报法[2],需要考虑SST的实际情况,然后在一定的初值和边界条件下,通过数值计算求解方程组来预测未来一定时间的SST;(2)统计预报法[3],通过筛选出影响SST的关键因子,再使用统计学方法预测SST。

    SST是单要素时间序列数据,所以SST预测便可视为一个单要素时间序列回归问题,因此许多研究者尝试利用时间序列分析方法来预测SST,期望获得更高的SST预测精度。那么对于SST预测,选择一种合适的时间序列预测方法具有非常重要的意义。考虑到SST具有周期性、持续性、非平稳性以及非线性等特点,但传统的时间序列预测模型如自回归(autoregressive,简称AR)模型[4]、滑动平均(moving average,简称MA)模型[5]以及自回归滑动平均(autoregressive moving average,简称ARMA)模型[6]等均是线性模型,无法满足SST预测的实际应用需求,因此研究者逐渐致力于研究非线性预测方法。在1995年,Vapnik[7]基于结构风险最小化原则提出了支持向量机(support vector machines,SVM)方法,该方法适用于处理小样本和非线性问题,具有较好的鲁棒性。Lins等人[8]将SVM与SST知识相结合来预测热带大西洋的SST,该方法主要侧重于SST的季节性和季节内的变化规律,实验数据为浮标数据,并分别以原始SST序列、SST曲率序列和SST斜率序列三种形式来预测SST,取得了较好的效果。人工神经网络(artificial neural network,简称ANN)作为现代人工智能(artificial intelligence,简称AI)的一个重要分支,它具有优良的非线性逼近能力和容错性,在众多领域都有广泛应用,BP神经网络[9]是目前应用最为广泛的神经网络模型。循环神经网络(recurrent neural networks,简称RNN)[10]在自然语言处理(natural language processing,简称NLP)中取得了巨大的成功,特别适用于语音识别、语言处理等基于时间序列数据的处理,但在迭代后期会出现“梯度爆炸”的现象。为解决RNN长时依赖的问题, Hochreiter和Schmidhuber[11]在1997年提出了长短期记忆网络(long short-term memory,简称LSTM),通过增加门机制从而解决了该问题。门控循环单元(gated recurrent unit,简称GRU)[12]神经网络具有与LSTM类似的门结构,常用于NLP领域。随着海洋科学和人工智能的紧密结合,许多深度学习(deep learning,简称DL)的方法不断在海洋科学领域得到广泛应用。Zhang等人[13]在2017年首次利用LSTM提取SST的时间特征,然后通过全连接将LSTM层的输出映射到最终的预测结果,最后以中国沿海海域的SST数据为实验数据集,获得的高精度预测结果验证了其有效性。

    上述方法都是通过拟合出SST历史数据的变化规律来实现预测,均只考虑SST的非线性,而没有充分利用SST的周期性、持续性和非平稳性,在一定程度上限制SST预测的精度。基于局部加权回归[14](locally weighted regression,简称Loess)的周期趋势分解(seasonal-trend decomposition procedure based on loess,简称STL)[15]是一种常见的时间序列分解算法,不仅能够探索历史数据的规律,还可以用于预测,适用于任何周期的数据,具有较好的鲁棒性,但是只能将时间序列分解为加性变化分量,目前广泛应用于海洋研究[16]和气候领域[17]。为了能充分利用SST的周期性、持续性和非平稳性,实现提高SST预测精度的目的,本文首次将STL引入到SST预测中,提出了一种基于STL的海表面温度预测方法,该方法首先利用STL将SST数据分解为季节项,趋势项和余项,实现数据的高效利用;再将季节分量、趋势分量和剩余分量一起作为预测模型的输入,利用强非线性逼近能力的神经网络预测模型来预测出未来五天内的SST。SVM、GRU和LSTM都是通过挖掘SST历史数据的非线性变化规律来实现预测,没有考虑SST变化的其他特性。而SST序列数据的变化是许多错综复杂的因素共同作用的结果,因此采用单一的预测模型预测SST,预测精度不高。本文方法能够挖掘SST变化的周期性、持续性和非平稳性,充分考虑影响SST变化的多种因素,最终达到了提高SST预测精度的目的。

    • 实验所用数据由美国国家海洋数据中心提供,为AVHRR卫星遥感数据,有5个点的SST时间序列数据,具体位置如图1所示。每条SST数据时间跨度为2004年1月1日至2016年12月31日,时间分辨率为1 d,共4749 d。

      图  1  数据采集位置分布

      Figure 1.  Location distribution of data collection

    • SST序列可以表示为T=T1T2,…,T|T|,|T|是SST序列的长度。图2是本文方法的流程图,主要工作分为两大部分:第一部分是利用STL将原始SST序列分解为季节项、趋势项和余项,不仅可以在原始数据的基础上消除随机噪声,还能够挖掘其中的潜在信息;第二部分是搭建神经网络预测模型,将季节项、趋势项和余项相结合一起作为预测模型的输入,通过神经网络预测模型来预测未来五天的SST。接下来主要介绍STL的相关知识,并详细描述相应的步骤。

      图  2  基于STL模型的SST预测流程

      Figure 2.  SST prediction flow chart based on STL model

      STL最初由Cleveland等人提出,是基于Loess将时间序列分解为加性变化分量的过滤过程。Loess是通过提取部分局部数据,利用局部数据来拟合多项式回归曲线,从而使曲线更加平滑,使数据在局部范围内的趋势和规律更容易观察。非平稳序列是指包含趋势、季节性或周期性的序列,SST序列便是一种非平稳序列。SST序列数据的变化是许多错综复杂的因素共同作用的结果,因此采用单一的预测模型预测SST,预测精度不高。针对该问题,本文使用时间序列分解方法对SST序列数据进行分解,分析出某些确定性因素影响下的序列分布规律,从而挖掘出其中潜在的关键信息。影响SST变动的因素主要包括季节变动、长期趋势和不规则变动,为了能够综合考虑这些因素,从而提高SST预测精度,本文利用STL将其分解为季节分量S、趋势分量C和剩余分量R,其分解可以如下表达:

      式中:T是原始SST序列;S是季节分量;C是趋势分量;R是剩余分量;|T|代表序列的长度。STL是一种迭代方法,其分解的计算过程由内循环和外循环两部分组成。经过内循环的每次循环都包含季节性平滑,用于更新季节分量。在内循环完成之后,在外循环中计算稳健的权重,在下一个内循环中,用于减少异常值对更新后续内循环中的趋势分量和季节分量的影响。图3是STL内循环过程示意图,其具体步骤如下。

      图  3  STL内循环过程

      Figure 3.  The schematic diagram of the internal cycle of STL

      步骤①:去趋势。在内循环迭代i+1次,用原始序列T减去在第i次迭代中获得的估计趋势分量Cti去趋势,$T_t^{\rm detrend} = {T_t} - C_t^i$

      步骤②:周期子序列平滑。用Loess对周期子序列Ttdetrend平滑化,获得初步季节分量$\tilde S_t^{i + 1}$

      步骤③:平滑周期子序列的低通滤波。使用低通滤波器处理步骤2中获得的初步季节分量$\tilde S_t^{i + 1}$,然后利用Loess获得Lti+1

      步骤④:平滑周期子序列的去趋势。季节分量是低通值和初步季节分量的差值$S_t^{i + 1} = \tilde S_t^{i + 1} - L_t^{i + 1}$

      步骤⑤:去季节性。原始序列T减去季节分量Si+1获得$T_t^{\rm deseason} = {T_t} - S_t^{i + 1}$

      步骤⑥:趋势平滑。利用Loess对Ttdeseason平滑化后获得趋势分量Cti+1

      在外循环中,利用内循环中得到的季节分量S和趋势分量C来计算剩余分量R${R_t} = {T_t} - {S_t} - {C_t}$。剩余分量R中较大的值被视为数据中的异常值,通过引入稳健性权重,在内循环的下一次迭代中,权重用于减小外循环的先前迭代中识别的异常值的影响。虽然利用STL方法能分析出影响SST变动因素的序列分布规律,但如何利用这些数据来预测SST是至关重要的。

    • SVM是一种经典的机器学习方法,通过寻求结构化风险最小实现提高泛化能力的目的,从而能够在样本量小的情况下也可以获得良好的统计规律,具有较强的鲁棒性和优秀的泛化能力。但是在数据量较大时,一是所需的训练时间较长,二是预测性能不如神经网络模型,因此选择搭建神经网络预测模型进行后续的预测。通过STL分解,已经获得了SST序列的趋势项、季节项和余项,下一步工作是将该三项作为神经网络预测模型的输入,从而实现预测未来五天内SST的目的。这部分工作的关键在于神经网络预测模型的搭建,神经网络模型是由大量层结构组成,在其训练过程中,其中某一层参数发生改变时,会影响后续层的输出,使得后续层的参数需要频繁修改,严重影响了模型的训练效率。除此之外,在进入激活函数之前,如果神经细胞的输出显著超过激活函数本身的适应范围,还可能导致模型训练失败。针对上述问题,通常在输入数据之后,首先会利用批量标准化(batch normalization,简称BN)[18]层对数据进行批量归一化,其作用不仅可以加快模型的训练速度,还能防止过拟合。一维卷积[19]可提高网络的非线性特性,其优势在于权重参数较少,并且可以提取重要特征,能够将输入序列转化为高级特征序列,更好的实现对输入数据的表达。通过卷积层能够获得N=[n1n2,…,ni-1ni],i代表的是每次输入数据的长度。全连接层的每一个结点都会与上一层连接,用于综合提取的特征,其公式如下表达:

      式中:N是全连接层的输入;Wfbf是全连接层的权重和偏置;tanh是该层的激活函数;F则是全连接层的输出,同时也被作为softmax[20]的输入。softmax在深度学习中有着广泛的应用,常用于多分类问题,公式表达如下:

      式中:Wsbssoftmax的权重和偏置,该层的输出可以表示为S=[s1s2,…,si-1si]。那么将特征序列N与注意力权重S对应相乘便可以获得加权后的特征序列X,即X=NS,其中○代表的是对应相乘,那么X=[x1x2,…,xi-1xi],其中xi=ni*si

      LSTM是在RNN的基础上进行改进,适用于处理时间序列中间隔和延迟相对较长的事件,与RNN相比,能够更好的处理长时间序列数据。LSTM中共有三个门结构,它们分别是输入门、遗忘门和输出门。输入门的作用是有选择性的保留输入的信息,并对细胞状态进行更新;遗忘门的作用是有选择性的遗忘冗余信息;输出门的作用是决定输出细胞状态的哪些部分。GRU通过将LSTM中的输入门和遗忘门进行合并,这样使得GRU比LSTM更加简单,参数更少且模型更容易收敛,但是在数据量较大的情况下,LSTM的性能更佳,因此选择LSTM用于后续的预测。图4是LSTM的细胞单元,这些细胞中增加了门的结构,可记忆和遗忘细胞中的信息,有效解决了梯度爆炸问题。

      图  4  LSTM细胞单元结构

      Figure 4.  LSTM cell unit structure diagram

      具体表达如下:

      式中:σ是线性整流函数(rectified linear unit,简称ReLU)[21]Ht-1是上一个细胞的输出;xtt时刻的输入。通过LSTM层可实现序列预测,然后再利用全连接层[22]将LSTM的输出映射到最终的预测结果,最终输出未来五天内的SST。以上所述就是神经网络预测模型的具体组成形式,通过将STL分解获得的信息作为该预测模型的输入,以期望信息能够被模型高效利用,从而提高SST预测精度。

    • 为验证本文方法的有效性,选择使用均方根误差(root mean square error,简称RMSE)和平均绝对百分误差(mean absolute percentage error,简称MAPE)作为评价指标,对比不同预测模型分别预测SST时预测性能的好坏。RMSEMAPE的公式如下表示:

      式中:yi代表的是真实值;${{\tilde y}_i}$代表的是预测值;Nt代表的是预测天数。模型在预测SST时,对于RMSEMAPE指标,两者都是越小越好,预测结果就越准确。

    • 本文算法均使用python实现,采用Keras框架搭建神经网络预测模型,Keras是一个深度学习的框架,有许多模块包,方便模型构建。实验运行环境为Windows10,Intel Core i5, 2.6 GHz,8 G RAM。

      为综合考虑SST的周期性、持续性、非平稳性以及非线性,首先利用STL从SST原始数据分解出季节项、趋势项和余项,再利用强非线性逼近能力的神经网络模型来预测未来5 d内的SST。图5代表的是五条原始SST序列数据,第1~5条序列从上到下依次排列。从图中可以发现SST年变化规律非常明显, 每年的趋势都是先升高然后再下降。图6是STL分解后的周期分量,可以发现其周期与原始数据是相吻合的。图7是STL分解后的趋势分量,可以看出SST均有上升的趋势。图8代表的是经过STL分解后的剩余分量。

      图  5  原始SST序列数据

      Figure 5.  Raw SST sequence data

      图  6  季节分量

      Figure 6.  The seasonal component of STL

      图  7  趋势分量

      Figure 7.  The trend component of STL

      图  8  剩余分量

      Figure 8.  The residual component of STL

      为验证神经网络预测模型的有效性,首先将SST数据分为训练集和验证集,其中将前3799 d的SST数据用于训练模型,剩余950 d的SST数据用于评估模型的预测性能。于此同时,分别与鲁棒性较强的SVM和当前主流的时间序列预测模型GRU、LSTM进行对比,通过比较不同预测方法获得的RMSE指标和MAPE指标来评价模型的性能。

      表1是SVM、GRU、LSTM、STL-GRU和STL-LSTM预测SST的RMSE指标,Avg是五次预测获得的RMSE指标的平均值。SVM在预测第二条SST序列时获得的RMSE指标为0.79,是该方法在五次预测中效果最好的,但相比于GRU、LSTM、STL-GRU和STL-LSTM预测第二条SST序列获得的RMSE指标,可以看出GRU、LSTM、STL-GRU和STL-LSTM比SVM的预测效果好。通过对比其它序列的预测效果和Avg,也不难看出,GRU、LSTM、STL-GRU和STL-LSTM的预测性能在整体上均优于SVM。STL-LSTM的平均RMSE指标优于LSTM,以及STL-GRU的平均RMSE指标优于GRU,可以说明将STL神经网络相结合确实能够有效提高SST预测精度;再对比STL-LSTM和STL-GRU的预测结果,可以发现STL-LSTM的预测性能要优于STL-GRU,说明本文方法具有一定的可行性。

      SVMGRULSTMSTL-GRUSTL-LSTM
      11.030.550.500.490.43
      20.790.660.570.510.46
      31.040.640.550.560.50
      41.090.690.620.600.55
      51.340.620.660.600.58
      Avg1.060.630.580.550.50

      表 1  SVM、GRU、LSTM、STL-GRU和STL-LSTM的RMSE指标

      Table 1.  RMSE for SVM, GRU, LSTM, STL-GRU and STL-LSTM

      表2是SVM、GRU、LSTM、STL-GRU和STL-LSTM预测SST的MAPE值,其中Avg是五次预测获得的MAPE指标的平均值。对于每条SST序列,SVM的MAPE指标都要高于其它四种方法,表明SVM的预测性能在这四个预测模型中是最差的,因此SVM解决单变量时间序列预测问题的能力不如GRU、LSTM、STL-GRU和STL-LSTM。从平均RMSE指标来看,LSTM对SST的预测能力优于GRU。STL-LSTM在预测每条序列时的MAPE指标都低于GRU、LSTM和STL-GRU的MAPE指标,表明STL-LSTM的SST预测性能要优于它们。主要原因是STL-LSTM不仅充分利用了LSTM算法的优点,并在预测前还利用STL分解来利用SST的其它特性进行预测以减小误差。

      SVMGRULSTMSTL-GRUSTL-LSTM
      12.091.441.261.241.05
      21.921.831.411.341.19
      32.511.791.501.581.37
      42.781.971.661.701.50
      53.361.842.011.801.77
      Avg2.531.781.571.531.38

      表 2  SVM、GRU、LSTM、STL-GRU和STL-LSTM的MAPE指标

      Table 2.  MAPE for SVM, GRU, LSTM, STL-GRU and STL-LSTM

      综上所述,无论在RMSE指标还是在MAPE指标下,GRU和LSTM均要优于SVM,而STL-GRU和STL-LSTM要优于GRU和LSTM,其中STL-LSTM具有最好的预测性能,验证了本文方法的有效性。

    • (1)本文利用RMSE和MAPE指标来评价模型的预测性能,将基于STL的SST预测模型与单一的神经网络预测模型进行对比,结果表明在STL分解基础上应用神经网络预测模型比单一的神经网络模型精度更高。

      (2)分析SVM、GRU、LSTM、STL-GRU和STL-SLTM的实验结果,实验结果表明,本文方法提高了SST预测的精度,验证了其有效性。

      (3)在充分考虑序列数据特性的前提下,本文方法不仅可以用于预测SST,在未来还可以推广至其它海洋要素序列数据的预测,具有非常广阔的推广应用前景。

参考文献 (22)

目录

    /

    返回文章