首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
杜杰 《信息与电脑》2023,(5):181-185
为研究感应测井数据质量,采用长短期记忆(Long Short Term Memory,LSTM)网络作为感应测井数据预测模型。首先建立阵列感应测井数据库,进行统一标准格式化并建立3层模拟地层环境模型;其次建立LSTM神经网络预测模型预测阵列感应测井原始阵列数据,并通过图表可视化输出预测结果;最后使用预测指标评价预测结果。结果表明基于LSTM神经网络的预测模型预测阵列感应测井原始阵列数据较为准确,且比传统方法更快速、简便。  相似文献   

2.
为了更好地对股票价格进行预测,进而为股民提供合理化的建议,提出了一种在结合长短期记忆网络(LSTM)和卷积神经网络(CNN)的基础上引入注意力机制的股票预测混合模型(LSTM-CNN-CBAM),该模型采用的是端到端的网络结构,使用LSTM来提取数据中的时序特征,利用CNN挖掘数据中的深层特征,通过在网络结构中加入注意...  相似文献   

3.
近年来,股票已成为很多普通人的投资对象。而上证指数作为股市风向标,对于宏观经济和整个股票市场具有十分重要的作用。用机器学习的方法研究上证指数,有助于了解股市变动,掌握上证多数个股的走势,给决策及投资者提供一些建议。基于此,以上证每日指数为研究对象,对2000—2022年的数据进行研究,采用差分自回归移动平均模型(Autoregressive Integrated Moving Average,ARIMA)与长短期记忆(Long Short Term Memory,LSTM)模型拟合上证指数收盘价,然后对预测结果进行分析并做出评价。  相似文献   

4.
K-Similarity降噪的LSTM神经网络水质多因子预测模型   总被引:1,自引:0,他引:1  
针对水质预测问题,以地表水水质监测因子作为研究对象,提出了一种基于长短期记忆(LSTM)神经网络的水质多因子预测模型,同时利用提出的K-Similarity降噪法对模型的输入数据进行降噪,提高模型预测性能.通过与BP神经网络、RNN和传统的LSTM神经网络预测模型进行对比实验,证明了所提出的方法均方误差最小,预测结果更准确.  相似文献   

5.
本文主要对LSTM模型结构改进及优化其参数,使其预测股票涨跌走势准确率明显提高,同时对美股周数据及日数据在LSTM神经网络预测效果展开研究.一方面通过分析对比两者预测效果差别,验证不同数据集对预测效果的影响;另一方面为LSTM股票预测研究提供数据集的选择建议,以提高股票预测准确率.本研究通过改进后的LSTM神经网络模型...  相似文献   

6.
7.
随着互联网的发展,内容营销逐渐成为电商营销的主流,而该类营销的日商品交易总额(gross merchandise volume,GMV)直接关系到企业的库存优化控制与广告投放策略。为了提高预测精度,基于真实电商订单数据集,根据内容营销的指标,分析用户行为对于GMV的影响,提出了一种长短期记忆网络(long short-term memory network,LSTM)与正则化极限学习机(regularized extreme learning machine,RELM)的组合模型LSTM-RELM。实验结果表明,相比于传统单一模型与双LSTM、LSTM-SVR、GM(1,1)-BP等组合模型,LSTM-RELM模型具有更精确的预测效果与更快的运行速度,能为相关销售企业提供广告投放策略参考与库存优化建议。  相似文献   

8.
9.
消费者网络购物浏览时间碎片化、对价格更敏感的特征带来滞后性消费。为了掌握顾客消费趋势,通过获取Q企业纸类商品的历史销售数据和消费者购买行为数据,分析消费者行为对销售数据的影响,并利用随机森林分别选取不考虑滞后性和考虑滞后性的特征因子;基于LSTM神经网络建立快消品的需求预测模型;根据Q企业纸类商品的数据进行预测及验证,结果表明考虑滞后性LSTM模型预测相对误差更小,预测精度更高。  相似文献   

10.
11.
提出一种基于栈式自动编码器(Stacked Auto Encoder,SAE)和长短时记忆(Long Short-Term Memory,LSTM)神经网络相结合的步态预测方法解决下肢外骨骼机器人跟随控制问题。人体在行走过程中下肢步态具有一定的周期性,通过将下肢运动信息作为输入,步态作为输出,构建SAE-LSTM神经网络模型,并利用Keras对SAE-LSTM神经网络进行搭建和验证。实验结果表明,SAE-LSTM神经网络根据之前时间段的步态序列有效地预测出下一时刻的步态信息,平均准确率能够达到92.9%以上。  相似文献   

12.
交通流量序列具有不平稳性、周期性、易受节假日等因素影响的特点,因此交通流量预测是一项困难的任务。针对交通流量序列的预测问题,设计了一种基于深度学习的交通流量预测模型。模型融合了卷积神经网络和长短时记忆神经网络两种网络结构,卷积神经网络用于提取特征分量,长短时记忆神经网络综合提取出来的特征分量做序列预测。通过在贵州省高速公路车流量数据集上的验证,模型比传统的预测方法具有更高的精确度和实时性,在不同数据集上的泛化性能良好。  相似文献   

13.
深度学习近年来被广泛应用于交通工程领域,针对大型路网中单个路段的交通流预测考虑因素单一、预测精度不高的问题,充分利用长短时记忆(LSTM)网络在时序数据处理方面的优势,结合路网交通流时空分析并运用LSTM模型进行预测。通过对路网中路段检测站点间交通流数据进行相关性计算,并设置不同阈值来选择出代表路段的编号构造原始数据矩阵,对矩阵进行压缩来增加运算效率,最后将压缩矩阵输入模型中进行预测。设置仿真对比实验,验证了提出的方法相较于其他几种模型预测准确率平均可提升11.84%,是一种高效率的交通流预测方法。  相似文献   

14.
在增大训练数据的情况下,使用传统的隐马尔科夫模型难以提升参数化语音合成预测质量。长短期记忆神经网络学习序列内的长程特征,在大规模并行数值计算下获得更准确的语音时长和更连贯的频谱模型,但同时也包含了可简化的计算。首先分析双向长短期记忆神经网络功能结构,接着移除遗忘门和输出门,最后对文本音素信息到倒频谱的映射关系建模。在普通话语料库上的对比实验证明,简化双向长短期记忆神经网络计算量减少一半,梅尔倒频率失真度由隐马尔科夫模型的3.466 1降低到1.945 9。  相似文献   

15.
交通速度是影响高速路网通行效率和安全的重要指标,精准预测高速路网交通速度可以减少交通事故和通行时间,预先为交通控制提供有价值的参考信息,对高速公路管理具有重要意义。基于时空注意力网络,提出一种由数据和长期预测任务驱动面向动态高速路网的交通速度预测模型(ST-ANet)。通过图注意力网络提取高速路网的动态空间关联特征,使用长短期记忆网络提取输入数据的时间关联特征。在此基础上,采用基于多头自注意力机制的时间注意力网络计算历史输入数据和预测值之间的相关性,并利用密集连接和层归一化方法进一步提升模型性能。基于中国宁夏回族自治区银川市高速路网监测数据进行实验,结果表明,与GCN-LSTM模型相比,STANet模型预测未来1 h、2 h和3 h内高速路网交通速度的平均绝对误差分别降低4.0%、3.6%和3.9%。  相似文献   

16.
基于深度学习的原理构建出六层长短记忆神经网络,通过集成学习中Bagging方法组合8个长短记忆神经网络。使用基于神经网络集成学习模型预测中国人民币普通股市场。实验测试了从2012年1月4日到2017年12月29日这期间的上海证券综合指数、深圳证券综合指数、上证50指数、沪深300指数、中小企业板指数和创业企业板指数。实验结果为模型的准确率达到58.5%,精确率为58.33%,召回率为73.5%,[F1]值为64.5%,AUC值为57.67%,取得了较好的预测效果。  相似文献   

17.
基于CNN和LSTM的多通道注意力机制文本分类模型   总被引:1,自引:0,他引:1       下载免费PDF全文
针对传统的卷积神经网络(Convolutional Neural Network,CNN)和长短时记忆网络(Long Short-Term Memory,LSTM)在提取特征时无法体现每个词语在文本中重要程度的问题,提出一种基于CNN和LSTM的多通道注意力机制文本分类模型。使用CNN和LSTM提取文本局部信息和上下文特征;用多通道注意力机制(Attention)提取CNN和LSTM输出信息的注意力分值;将多通道注意力机制的输出信息进行融合,实现了有效提取文本特征的基础上将注意力集中在重要的词语上。在三个公开数据集上的实验结果表明,提出的模型相较于CNN、LSTM及其改进模型效果更好,可以有效提高文本分类的效果。  相似文献   

18.
传统异常检测模型往往基于内容特征,随着攻击手段的提高,该方法易于被绕过,因此图挖掘技术逐渐成为了国内外学术研究的热点。为了提高异常检测的准确率,提出了一种基于长短时记忆网络的动态图模型异常检测算法。首先通过对动态图的变化特征进行分析,总结了Egonet图结构距离和编辑距离两类特征,高效地表示动态图结构的变化情况。其次,通过基于LSTM的时间序列分类算法,进行模型的训练。最后对抓取的网络数据流进行入侵检测,对超过6万节点和300万条边的拓扑图进行测试。最终实验结果表明,该算法具有更高的准确率和召回率,可以有效地检测出网络入侵事件。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号