【苏州大学2023级研究生秋季机器学习期末大作业】题目要求:
![image](https://github.com/MaoDong9/sequence-feature-predicton-ML-and-DL/assets/103551781/ffd1d472-5480-481c-81e2-e63101816d5e)
We uploaded part of the code.
Due to the environment configuration and other factors, we do not guarantee that the code will run completely, but the logic of the code we can guarantee. If you have any questions, please contact me : dong_i@163.com .
**Note**:
**1)** m_model represents LSTM-Encoder-Decoder model, the models have the same train and test function;
**2)** When running, pay attention to the location of the file;
**3)** The transformer-base model was completed by another member of the group, and the other two were modeled by me. Data processing and training test functions are also done by me;
**4)** The report will be submitted after the teacher finishes grading.
some of **LSTM-Encoder-Decoder** predicted effects as follows:
![image](https://github.com/MaoDong9/sequence-feature-predicton-ML-and-DL/assets/103551781/60dffb21-c637-4266-bce9-4e4bcf09d1b7)
![image](https://github.com/MaoDong9/sequence-feature-predicton-ML-and-DL/assets/103551781/02360741-e423-4f74-9862-1176305b6ae1)
some of **transformer-base** predicted effects as follows:
![image](https://github.com/MaoDong9/sequence-feature-predicton-ML-and-DL/assets/103551781/f79e60e2-221b-45ac-8b5d-d58b2c9840b8)
![image](https://github.com/MaoDong9/sequence-feature-predicton-ML-and-DL/assets/103551781/50070089-8f00-4045-b943-78de0efa8d80)
some of **BeLSTM** predicted effects as follows:
![image](https://github.com/MaoDong9/sequence-feature-predicton-ML-and-DL/assets/103551781/425971a4-50f0-470d-bc36-4ae82d60fdd5)
![image](https://github.com/MaoDong9/sequence-feature-predicton-ML-and-DL/assets/103551781/0d87d0c0-79be-42b3-95ee-d5786525fed2)
没有合适的资源?快使用搜索试试~ 我知道了~
基于LSTM的Encoder-Decoder模型、基于Transformer的序列预测模型和BeLSTM模型来预测电力变压器油温
共12个文件
py:8个
csv:3个
md:1个
需积分: 5 0 下载量 162 浏览量
2024-05-22
13:16:11
上传
评论
收藏 349KB ZIP 举报
温馨提示
LSTM (Long Short-Term Memory) 是一种特殊的循环神经网络(RNN)架构,用于处理具有长期依赖关系的序列数据。传统的RNN在处理长序列时往往会遇到梯度消失或梯度爆炸的问题,导致无法有效地捕捉长期依赖。LSTM通过引入门控机制(Gating Mechanism)和记忆单元(Memory Cell)来克服这些问题。 以下是LSTM的基本结构和主要组件: 记忆单元(Memory Cell):记忆单元是LSTM的核心,用于存储长期信息。它像一个传送带一样,在整个链上运行,只有一些小的线性交互。信息很容易地在其上保持不变。 输入门(Input Gate):输入门决定了哪些新的信息会被加入到记忆单元中。它由当前时刻的输入和上一时刻的隐藏状态共同决定。 遗忘门(Forget Gate):遗忘门决定了哪些信息会从记忆单元中被丢弃或遗忘。它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 输出门(Output Gate):输出门决定了哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。同样地,它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 LSTM的计算过程可以大致描述为: 通过遗忘门决定从记忆单元中丢弃哪些信息。 通过输入门决定哪些新的信息会被加入到记忆单元中。 更新记忆单元的状态。 通过输出门决定哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。 由于LSTM能够有效地处理长期依赖关系,它在许多序列建模任务中都取得了很好的效果,如语音识别、文本生成、机器翻译、时序预测等。
资源推荐
资源详情
资源评论
收起资源包目录
本文使用了基于LSTM的Encoder-Decoder模型、基于Transformer的序列预测模型和本文提出的BeLSTM模型来预测电力变压器油温。.zip (12个子文件)
content
transformer-base
util.py 3KB
mask.py 216B
parameter_set.py 203B
m_model_transformer.py 2KB
m_train.py 4KB
dataset
test_set.csv 434KB
validation_set.csv 435KB
train_set.csv 1.23MB
m_model.py 3KB
m_model_BeLSTM.py 5KB
README.md 2KB
data_process.py 1KB
共 12 条
- 1
资源评论
生瓜蛋子
- 粉丝: 3828
- 资源: 5775
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功