import numpy as np
import pandas as pd
import scipy.sparse as sp
def load_all(trainRatingPath, testNegativePath):
""" We load all the three file here to save time in each epoch. """
train_data = pd.read_csv(
trainRatingPath,
sep='\t', header=None, names=['user', 'item'],
usecols=[0, 1], dtype={0: np.int32, 1: np.int32})
user_num = train_data['user'].max() + 1
item_num = train_data['item'].max() + 1
train_data = train_data.values.tolist()
# load ratings as a dok matrix
train_mat = sp.dok_matrix((user_num, item_num), dtype=np.float32)
for x in train_data:
train_mat[x[0], x[1]] = 1.0
test_data = []
with open(testNegativePath, 'r') as fd:
line = fd.readline()
while line != None and line != '':
arr = line.split('\t')
u = eval(arr[0])[0]
test_data.append([u, eval(arr[0])[1]])
for i in arr[1:-1]:
test_data.append([u, int(i)])
line = fd.readline()
return train_data, test_data, user_num, item_num, train_mat
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
通过SR-GNN算法进行挖掘商品图的时序商品推荐——数据集通过SR-GNN算法进行挖掘商品图的时序商品推荐——数据集通过SR-GNN算法进行挖掘商品图的时序商品推荐——数据集通过SR-GNN算法进行挖掘商品图的时序商品推荐——数据集
资源推荐
资源详情
资源评论
收起资源包目录
通过SR-GNN算法进行挖掘商品图的时序商品推荐.zip (14个子文件)
datasets
data
test.rating 10KB
test.negative 384KB
ml-1m.test.negative 2.76MB
ml-1m.test.rating 131KB
ml-1m.train.rating 20.96MB
.ipynb_checkpoints
train-checkpoint.rating 1017KB
train.rating 1017KB
src
__pycache__
evaluate.cpython-36.pyc 963B
data_utils.cpython-37.pyc 1KB
evaluate.cpython-37.pyc 1KB
data_utils.cpython-36.pyc 1KB
evaluate.py 796B
data_utils.py 999B
.ipynb_checkpoints
evaluate-checkpoint.py 796B
共 14 条
- 1
资源评论
- weixin_514019652023-03-17这个资源对我启发很大,受益匪浅,学到了很多,谢谢分享~
- 2301_767723402023-05-21内容与描述一致,超赞的资源,值得借鉴的内容很多,支持!
甜辣uu
- 粉丝: 8407
- 资源: 1103
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功