长短期记忆网络LSTM(long short-term memory)

这篇具有很好参考价值的文章主要介绍了长短期记忆网络LSTM(long short-term memory)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

承接 3D模型制作

长短期记忆网络LSTM(long short-term memory)

递归神经网络

递归神经网络可以解决这个问题。它们是带有循环的神经网络,允许信息保留一段时间。
在上图中,A 代表神经网络主体, xt 是网络输入,ht是网络输出,循环结构允许信息从当前输出传递到下一次的网络输入。
长短期记忆网络LSTM(long short-term memory)一个递归神经网络可以看多是一个网络的多次拷贝,每次把信息传递给他的继任者。让我们把网络展开,你会看到发生了什么。

长期依赖的问题

人们希望RNNs能够连接之前的信息到当前的任务中,例如,使用之前的图像帧信息去辅助理解当前的帧。

有时,我们仅仅需要使用当前的信息去执行当前的任务。例如, 一个语言模型试图根据之前的单词去预测下一个单词。如果我们试图去预测“the clouds are in the sky”,我们不需要更多的上下文信息–很明显下一个单词会是sky。

长短期记忆网络LSTM(long short-term memory)
当我们去尝试预测“I grew up in France…I speak fluent French”的最后一个单词,最近的信息表明下一个单词应该是语言的名字,但是如果我们想缩小语言的范围,看到底是哪种语言,我们需要France这个在句子中比较靠前的上下文信息。相关信息和需要预测的点的间隔很大的情况是经常发生的。
长短期记忆网络LSTM(long short-term memory)实践表明RNNs不能完美的学习“长期依赖(Long-term dependencies)”,LSTMs没有这些问题。

LSTM 网络

长短期记忆网络–通畅叫做”LSTMs”–是一种特殊的RNNs, 它能够学习长期依赖。
LSTMs被明确的设计用来解决长期依赖问题,记住长时间段的信息是他们的必备技能。
所有的递归神经网络都有重复神经网络本身模型的链式形式。在标准的RNNs, 这个复制模块只有一个非常简单的结构,例如一个双极性(tanh)层。
长短期记忆网络LSTM(long short-term memory)
LSTMs 也有这种链式结构,但是这个重复模块与上面提到的RNNs结构不同:LSTMs并不是只增加一个简单的神经网络层,而是四个,它们以一种特殊的形式交互。
长短期记忆网络LSTM(long short-term memory)

LSTMs背后的核心思想

LSTMs的核心之处就是它的神经元状态,如下图中所示,上面那条贯穿整个结构的水平线。
神经元状态就像是一个传送带。它的线性作用很小,贯穿整个链式结构。信息很容易在传送带上传播,状态却并不会改变。
长短期记忆网络LSTM(long short-term memory)LSTM有能力删除或者增加神经元状态中的信息,这一机制是由被称为门限的结构精心管理的。
门限是一种让信息选择性通过的方式,它们是由Sigmoid神经网络层和逐点相乘器做成的。

Sigmod层输出0~1之间的数字,描述了一个神经元有多少信息应该被通过。输出“0”意味着“全都不能通过”,输出“1”意味着“让所有都通过”。

一个LSTM有三个这样的门限,去保护和控制神经元状态。
长短期记忆网络LSTM(long short-term memory)

一步一步的推导LSTM

LSTM的第一步就是决定什么信息应该被神经元遗忘。这是一个被称为“遗忘门层”的Sigmod层组成的。它输入 ht−1和xt,然后在Ct−1 的每个神经元状态输出0~1之间的数字。“1”表示“完全保留这个”,“0”表示“完全遗忘这个”。
让我们再次回到那个尝试去根据之前的词语去预测下一个单词的语言模型。在这个问题中,神经元状态或许包括当前主语中的性别信息,所以可以使用正确的代词。当我们看到一个新的主语,我们会去遗忘之前的性别信息。
长短期记忆网络LSTM(long short-term memory)下一步就是决定我们要在神经元细胞中保存什么信息,这包括两个部分。首先,一个被称为“输入门层”的Sigmod层决定我们要更新的数值。然后,一个tanh层生成一个新的候选数值,Ct˜,它会被增加到神经元状态中。在下一步中中,我们会组合这两步去生成一个更新状态值。
在那个语言模型例子中,我们想给神经元状态增加新的主语的性别,替换我们将要遗忘的旧的主语。
长短期记忆网络LSTM(long short-term memory)
我们给旧的状态乘以一个ft,遗忘掉我们之前决定要遗忘的信息,然后我们增加it∗Ct˜。这是新的候选值,是由我们想多大程度上更新每个状态的值来度量的。
长短期记忆网络LSTM(long short-term memory)最后,我们要决定要输出什么。这个输出是建立在我们的神经元状态的基础上的,但是有一个滤波器。首先,我们使用Sigmod层决定哪一部分的神经元状态需要被输出;然后我们让神经元状态经过tanh(让输出值变为-1~1之间)层并且乘上Sigmod门限的输出,我们只输出我们想要输出的。
长短期记忆网络LSTM(long short-term memory)

长短期记忆神经网络的变体

长短期记忆网络LSTM(long short-term memory)上图中给每个门限增加了窥视孔,但是有些论文,只给一部分门限增加窥视孔,并不是全部都加上。

长短期记忆网络LSTM(long short-term memory)另外一个变体是使用组合遗忘和输入门。而不是分开决定哪些神经元需要遗忘信息,哪些需要增加新的信息,我们组合起来决定。我们只遗忘那些需要被放入新信息的状态,同样,我们只在旧的信息被遗忘之后才输入新的信息。

长短期记忆网络LSTM(long short-term memory)门递归单元。它组合遗忘们和输入门为一个“更新门”,它合并了神经元状态和隐层状态,并且还做了一些其他改变。最终这个模型比标准的LSTM模型简单一些,并且变得越来越流行。文章来源地址https://www.toymoban.com/news/detail-473380.html

到了这里,关于长短期记忆网络LSTM(long short-term memory)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 回归算法|长短期记忆网络LSTM及其优化实现

    回归算法|长短期记忆网络LSTM及其优化实现

    本期文章将介绍LSTM的原理及其优化实现 序列数据有一个特点,即“没有曾经的过去则不存在当前的现状”,这类数据以时间为纽带,将无数个历史事件串联,构成了当前状态,这种时间构筑起来的事件前后依赖关系称其为时间依赖,利用这类依赖关系进行建模是对其进行学

    2024年02月08日
    浏览(9)
  • 【Matlab】LSTM长短期记忆神经网络时序预测算法(附代码)

    【Matlab】LSTM长短期记忆神经网络时序预测算法(附代码)

     资源下载: https://download.csdn.net/download/vvoennvv/88688439  资源合集:https://download.csdn.net/download/vvoennvv/88700669 【Matlab】BP 神经网络时序预测算法 【Matlab】CNN卷积神经网络时序预测算法 【Matlab】ELM极限学习机时序预测算法 【Matlab】基于遗传算法优化BP神经网络 (GA-BP)的数据时序

    2024年02月03日
    浏览(12)
  • 【神经网络】循环神经网络RNN和长短期记忆神经网络LSTM

    【神经网络】循环神经网络RNN和长短期记忆神经网络LSTM

    欢迎访问Blog总目录! 一文看尽RNN(循环神经网络) - 知乎 (zhihu.com) 一文搞懂RNN(循环神经网络)基础篇 - 知乎 (zhihu.com) 循环神经网络(Recurrent Neural Network, RNN)是一类以 序列 (sequence)数据为输入,在序列的演进方向进行 递归 (recursion)且所有节点(循环单元)按链式连

    2024年04月10日
    浏览(14)
  • 故障诊断模型 | Maltab实现LSTM长短期记忆神经网络故障诊断

    故障诊断模型 | Maltab实现LSTM长短期记忆神经网络故障诊断

    故障诊断模型 | Maltab实现LSTM长短期记忆神经网络故障诊断 长短记忆神经网络——通常称作LSTM,是一种特殊的RNN,能够学习长的依赖关系。 他们由Hochreiter&Schmidhuber引入,并被许多人进行了改进和普及。 LSTM是为了避免长依赖问题而精心设计的。 记住较长的历史信息实际上是

    2024年02月07日
    浏览(19)
  • 时序预测 | Python实现LSTM长短期记忆网络时间序列预测(电力负荷预测)
  • 分类预测 | MATLAB实现PCA-LSTM(主成分长短期记忆神经网络)分类预测

    分类预测 | MATLAB实现PCA-LSTM(主成分长短期记忆神经网络)分类预测

    预测效果 基本介绍 MATLAB实现PCA-LSTM(主成分长短期记忆神经网络)分类预测。Matlab实现基于PCA-LSTM主成分分析-长短期记忆神经网络多输入分类预测(完整程序和数据) 基于主成分分析-长短期记忆神经网络分类预测,PCA-LSTM分类预测,多输入分类预测(Matlab完整程序和数据) 输

    2024年02月09日
    浏览(12)
  • 时序预测 | MATLAB实现WOA-LSTM鲸鱼算法优化长短期记忆网络时间序列预测

    时序预测 | MATLAB实现WOA-LSTM鲸鱼算法优化长短期记忆网络时间序列预测

    预测效果 基本介绍 MATLAB实现WOA-LSTM鲸鱼算法优化长短期记忆网络时间序列预测 基于鲸鱼算法优化长短期记忆网络(WOA-LSTM)的时间序列预测。 优化参数为学习率,隐藏层节点个数,正则化参数,要求2018b及以上版本,matlab代码。 评价指标包括:MAE、MSE、RMSE等,代码质量极高,方

    2024年02月01日
    浏览(15)
  • (Matlab)基于CNN-Bi_LSTM的多输入分类(卷积神经网络-双向长短期记忆网络)

    (Matlab)基于CNN-Bi_LSTM的多输入分类(卷积神经网络-双向长短期记忆网络)

    目录 一、程序及算法内容介绍: 基本内容: 亮点与优势: 二、实际运行效果: 三、部分代码展示: 四、完整代码+数据下载: 本代码基于 Matlab 平台编译,将 卷积神经网络 ( CNN )与 双向长短期记忆神经网络 ( Bi- LSTM )结合,进行数据回归预测 输入训练的数据包含 12 个特征

    2024年02月01日
    浏览(16)
  • 时序预测 | MATLAB实现BO-LSTM贝叶斯优化长短期记忆神经网络股票价格预测

    时序预测 | MATLAB实现BO-LSTM贝叶斯优化长短期记忆神经网络股票价格预测

    效果一览 基本介绍 时序预测 | MATLAB实现BO-LSTM贝叶斯优化长短期记忆神经网络股票价格预测

    2024年02月12日
    浏览(17)
  • 时序预测 | MATLAB实现TCN-LSTM时间卷积长短期记忆神经网络时间序列预测

    时序预测 | MATLAB实现TCN-LSTM时间卷积长短期记忆神经网络时间序列预测

    预测效果 基本介绍 1.MATLAB实现TCN-LSTM时间卷积长短期记忆神经网络时间序列预测; 2.运行环境为Matlab2021b; 3.单变量时间序列预测; 4.data为数据集,excel数据,MainTCN_LSTMTS.m为主程序,运行即可,所有文件放在一个文件夹; 5.命令窗口输出RMSE、MAE、MAPE多指标评价。 模型描述 由

    2024年02月09日
    浏览(13)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包