#!/usr/bin/env python
# coding: utf-8
# In[1]:
import random # 导入random模块用于生成随机数
import numpy as np # 导入NumPy库用于数值操作
from copy import deepcopy # 导入copy模块的deepcopy函数,用于创建对象的深层副本
import math # 导入math模块用于数学运算
import os # 导入os模块用于与操作系统交互
import matplotlib.pyplot as plt # 导入matplotlib的pyplot模块,用于绘图
import pandas as pd # 导入pandas库用于数据操作和分析
from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score # 从sklearn导入各种评估指标
from sklearn.preprocessing import MinMaxScaler # 从sklearn导入MinMaxScaler用于特征缩放
from tensorflow.python.keras.callbacks import EarlyStopping # 从Keras导入EarlyStopping回调函数,用于在模型训练过程中提前停止
from tensorflow.python.keras.layers import Dense, Dropout, LSTM # 导入Keras的Dense、Dropout和LSTM层
from tensorflow.python.keras.layers.core import Activation # 导入Keras的Activation函数
from tensorflow.python.keras.models import Sequential # 导入Keras的Sequential模型
import tensorflow as tf # 导入tensorflow模块
#更多模型搜索机器学习之心,支持模型定制
# In[2]:
plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号
# In[3]:
# 调用GPU加速
gpus = tf.config.experimental.list_physical_devices(device_type='GPU')
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)
# In[4]:
'''
定义一个函数用于创建数据集,输入参数包括:
dataset: 数据集
look_back: 回溯长度,即用多少个时间步作为输入预测下一个时间步
'''
def creat_dataset(dataset, look_back):
dataX, dataY = [], []
for i in range(len(dataset) - look_back - 1):# 循环遍历数据集
a = dataset[i: (i + look_back)]# 提取回溯长度的数据作为输入
dataX.append(a)# 将该输入数据添加到输入数据集
dataY.append(dataset[i + look_back])# 将下一个时间步的数据添加到输出数据集
return np.array(dataX), np.array(dataY)# 将输入输出数据集转换为numpy数组并返回
# In[5]:
dataframe = pd.read_csv('焦作.csv',header=0, parse_dates=[0],index_col=0, usecols=[0, 1])# 读取CSV文件,并设置第一列为日期,作为索引
dataset = dataframe.values# 获取数据集的值
dataframe.head(10)# 查看前10行数据
# In[6]:
scaler = MinMaxScaler(feature_range=(0, 1))# 使用 MinMaxScaler 进行数据归一化
dataset = scaler.fit_transform(dataset.reshape(-1, 1))# 将数据变为二维数组并进行归一化
# In[7]:
train_size = int(len(dataset) * 0.8) # 计算训练集大小,将数据集长度的 80% 转换为整数
test_size = len(dataset) - train_size # 计算测试集大小,将剩余的数据作为测试集
train, test = dataset[0: train_size], dataset[train_size: len(dataset)] # 将数据集划分为训练集和测试集,使用切片操作实现
# In[8]:
look_back = 10# 定义时序窗口大小
trainX, trainY = creat_dataset(train, look_back)# 生成训练集
testX, testY = creat_dataset(test, look_back)# 生成测试集
# In[9]:
def build_model(neurons1, neurons2, dropout):#定义一个函数,用于构建 LSTM 模型
# 将训练集和测试集的输入和输出数据分别赋值给 X_train、y_train、X_test 和 y_test
X_train, y_train = trainX, trainY
X_test, y_test = testX, testY
model = Sequential()# 创建 Sequential 模型
model.add(LSTM(units=neurons1, return_sequences=True, input_shape=(look_back, 1)))# 添加第一个 LSTM 层,指定神经元个数和输入数据形状
model.add(LSTM(units=neurons2, return_sequences=False))# 添加第二个 LSTM 层,指定神经元个数
model.add(Dropout(dropout))# 添加 Dropout 层,指定失活率
model.add(Dense(units=1))# 添加全连接层,输出维度为 1
model.add(Activation('relu'))# 添加激活函数层,使用 ReLU 函数
model.compile(loss='mean_absolute_error', optimizer='Adam')# 编译模型,指定损失函数和优化器
return model, X_train, y_train, X_test, y_test# 返回构建好的模型以及训练集和测试集的输入和输出数据
# In[10]:
def training(X):
neurons1 = int(X[0]) # 从 X 中获取超参数 neurons1,并将其转换为整数
neurons2 = int(X[1]) # 从 X 中获取超参数 neurons2,并将其转换为整数
dropout = round(X[2], 6) # 从 X 中获取超参数 dropout,并将其保留 6 位小数
batch_size = int(X[3]) # 从 X 中获取超参数 batch_size,并将其转换为整数
print([neurons1, neurons2, dropout, batch_size]) # 打印超参数列表
model, X_train, y_train, X_test, y_test = build_model(neurons1, neurons2, dropout) # 构建模型并获取训练集、测试集
model.fit(
X_train,
y_train,
batch_size=batch_size,
epochs=100,
validation_split=0.1,
verbose=0,
callbacks=[EarlyStopping(monitor='val_loss', patience=10, restore_best_weights=True)]) # 训练模型
pred = model.predict(X_test) # 在测试集上进行预测
temp_mse = mean_squared_error(y_test, pred) # 计算预测结果与真实值之间的均方误差
print(temp_mse) # 打印均方误差
return temp_mse # 返回均方误差作为适应度函数的结果
# In[11]:
#白鲸优化
def BWO(n, tmax, lb, ub, nd, fobj):
# BWO函数接受一些参数来执行Bat算法
# n: 种群大小
# tmax: 最大迭代次数
# lb: 位置的下界
# ub: 位置的上界
# nd: 位置的维度
# fobj: 适应值函数
# 记录每轮更新最优解
best_fval = [] # 用于存储每轮迭代的最优解值
# 位置矩阵
x = lb + np.random.random((n, nd)) * (ub - lb)
# 创建一个n行nd列的矩阵x,每个元素的取值范围在lb和ub之间
# 适应值矩阵
fobj_list = [fobj(x[i, ...]) for i in range(n)]
# 计算每个位置的适应值
fx = np.array(fobj_list)
# 将适应值转换为NumPy数组
# 适应值拷贝矩阵
temp_fx = deepcopy(fx)
# 创建适应值的副本,用于后续比较
# 最优解和最优解值
xposbest = x[np.argmin(fx)]
# 找到适应值最小的位置,将其作为最优解位置
fvalbest = min(fx)
# 找到适应值的最小值,将其作为最优解值
best_fval.append(fvalbest)
# 将最优解值添加到列表中,用于记录每轮迭代的最优解值
print('更多模型搜索机器学习之心,支持模型定制')
# 循环更新
for t in range(1, tmax + 1):
# 位置拷贝矩阵
temp_x = deepcopy(x)
# 创建一个临时的位置矩阵,用于存储更新后的位置
# 鲸落概率
wf = 0.1 - 0.05 * (t / tmax) # 根据当前迭代次数计算鲸落概率wf,概率随迭代次数递减
# 计算每只白鲸的平衡因子bf
b0 = np.random.random(n) # 生成一个长度为n的随机数数组,取值范围在0和1之间
for b0_index in range(len(b0)):
while b0[b0_index] == 0:
b0[b0_index] = np.random.random()
# 将平衡因子中的0替换为一个新的随机数,确保平衡因子不为0
bf = b0 * (1 - t / (2 * tmax)) # 根据当前迭代次数计算每只白鲸的平衡因子bf,随着迭代次数增加,平衡因子逐渐减小
# 更新每一只白鲸位置
for i in range(n):
# 探索阶段
if bf[i] > 0.5: # 如果当前位置的bf大于0.5
r1 = np.random.random() # 生成一个随机的浮点数r1
r2 = np.random.random() # 生成一个随机的浮点数r2
while r1 == 0: # 如果r1等于0
r1 = np.random.random() # 重新生成一
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
1.Python实现BWO-LSTM白鲸算法优化长短期记忆神经网络时间序列预测(完整源码和数据) anaconda + pycharm + python +Tensorflow 注意事项:保姆级注释,几乎一行一注释,方便小白入门学习! 2.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 3.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。 4.作者介绍:某大厂资深算法工程师,从事Matlab、Python算法仿真工作8年;擅长智能优化算法、神经网络预测、信号处理、元胞自动机等多种领域的算法仿真实验,更多仿真源码、数据集定制私信+
资源推荐
资源详情
资源评论
收起资源包目录
BWO-LSTM(白鲸).zip (3个子文件)
焦作.csv 62KB
BWO-LSTM(白鲸).py 19KB
焦作全.csv 112KB
共 3 条
- 1
资源评论
机器学习之心
- 粉丝: 1w+
- 资源: 704
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功