from skimage import io, transform # skimage模块下的io transform(图像的形变与缩放)模块
import glob # glob 文件通配符模块
import os # os 处理文件和目录的模块
import tensorflow as tf
import numpy as np # 多维数据处理模块
import time
# 数据集地址
path = 'data'
# 模型保存地址
model_path = 'model/fc_model.ckpt'
# 将所有的图片resize成100*100
w = 100
h = 100
c = 1
# 读取图片+数据处理
def read_img(path):
imgs = []
labels = []
for fistname in os.listdir(path):
# print(fistname)
for textname in os.listdir(path + "/" + fistname): # os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表
# print(textname)
for fname in os.listdir(path + "/" + fistname + "/" + textname):
# print(fname)
fpath = os.path.join(path, fistname, textname, fname) # 路径拼接
img = io.imread(fpath) # 按照路径打开文件
# #skimage.transform.resize(image, output_shape)改变图片的尺寸
img = transform.resize(img, (w, h))
# 将读取的图片数据加载到imgs[]列表中
imgs.append(img)
# 将图片的label加载到labels[]中,与上方的imgs索引对应
label = int(fistname[-1])
labels.append(label)
# 将读取的图片和labels信息,转化为numpy结构的ndarr(N维数组对象(矩阵))数据信息
imgs = np.array(imgs)
imgs = np.reshape(imgs, [-1, w, h, 1])
print("shape of datas: {}\tshape of labels: {}".format(np.array(imgs).shape, np.array(labels).shape))
return np.asarray(imgs, np.float32), np.asarray(labels, np.int32)
# 调用读取图片的函数,得到图片和labels的数据集
data, label = read_img(path)
# 打乱顺序
# 读取data矩阵的第一维数(图片的个数)
num_example = data.shape[0]
# 产生一个num_example范围,步长为1的序列
arr = np.arange(num_example)
# 调用函数,打乱顺序
np.random.shuffle(arr)
# 按照打乱的顺序,重新排序
data = data[arr]
label = label[arr]
# 将所有数据分为训练集和验证集
ratio = 0.8
s = np.int(num_example * ratio)
x_train = data[:s]
y_train = label[:s]
x_val = data[s:]
y_val = label[s:]
# -----------------构建网络----------------------
# 本程序cnn网络模型,共有7层,前三层为卷积层,后三层为全连接层,前三层中,每层包含卷积、激活、池化层
# 占位符设置输入参数的大小和格式
x = tf.placeholder(tf.float32, shape=[None, w, h, c], name='x')
y_ = tf.placeholder(tf.int32, shape=[None, ], name='y_')
def inference(input_tensor, train, regularizer):
# -----------------------第一层----------------------------
with tf.variable_scope('layer1-conv1'):
# 初始化权重conv1_weights为可保存变量,大小为5x5,3个通道(RGB),数量为32个
conv1_weights = tf.get_variable("weight", [5, 5, 1, 32],
initializer=tf.truncated_normal_initializer(stddev=0.1))
# 初始化偏置conv1_biases,数量为32个
conv1_biases = tf.get_variable("bias", [32], initializer=tf.constant_initializer(0.0))
# 卷积计算,tf.nn.conv2d为tensorflow自带2维卷积函数,input_tensor为输入数据,
# conv1_weights为权重,strides=[1, 1, 1, 1]表示左右上下滑动步长为1,padding='SAME'表示输入和输出大小一样,即补0
conv1 = tf.nn.conv2d(input_tensor, conv1_weights, strides=[1, 1, 1, 1], padding='SAME')
# 激励计算,调用tensorflow的relu函数
relu1 = tf.nn.relu(tf.nn.bias_add(conv1, conv1_biases))
with tf.name_scope("layer2-pool1"):
# 池化计算,调用tensorflow的max_pool函数,strides=[1,2,2,1],表示池化边界,2个对一个生成,padding="VALID"表示不操作。
pool1 = tf.nn.max_pool(relu1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding="VALID")
# -----------------------第二层----------------------------
with tf.variable_scope("layer3-conv2"):
# 同上,不过参数的有变化,根据卷积计算和通道数量的变化,设置对应的参数
conv2_weights = tf.get_variable("weight", [5, 5, 32, 64],
initializer=tf.truncated_normal_initializer(stddev=0.1))
conv2_biases = tf.get_variable("bias", [64], initializer=tf.constant_initializer(0.0))
conv2 = tf.nn.conv2d(pool1, conv2_weights, strides=[1, 1, 1, 1], padding='SAME')
relu2 = tf.nn.relu(tf.nn.bias_add(conv2, conv2_biases))
with tf.name_scope("layer4-pool2"):
pool2 = tf.nn.max_pool(relu2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID')
# -----------------------第三层----------------------------
# 同上,不过参数的有变化,根据卷积计算和通道数量的变化,设置对应的参数
with tf.variable_scope("layer5-conv3"):
conv3_weights = tf.get_variable("weight", [3, 3, 64, 128],
initializer=tf.truncated_normal_initializer(stddev=0.1))
conv3_biases = tf.get_variable("bias", [128], initializer=tf.constant_initializer(0.0))
conv3 = tf.nn.conv2d(pool2, conv3_weights, strides=[1, 1, 1, 1], padding='SAME')
relu3 = tf.nn.relu(tf.nn.bias_add(conv3, conv3_biases))
with tf.name_scope("layer6-pool3"):
pool3 = tf.nn.max_pool(relu3, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID')
# -----------------------第四层----------------------------
# 同上,不过参数的有变化,根据卷积计算和通道数量的变化,设置对应的参数
with tf.variable_scope("layer7-conv4"):
conv4_weights = tf.get_variable("weight", [3, 3, 128, 128],
initializer=tf.truncated_normal_initializer(stddev=0.1))
conv4_biases = tf.get_variable("bias", [128], initializer=tf.constant_initializer(0.0))
conv4 = tf.nn.conv2d(pool3, conv4_weights, strides=[1, 1, 1, 1], padding='SAME')
relu4 = tf.nn.relu(tf.nn.bias_add(conv4, conv4_biases))
with tf.name_scope("layer8-pool4"):
pool4 = tf.nn.max_pool(relu4, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID')
nodes = 6 * 6 * 128
reshaped = tf.reshape(pool4, [-1, nodes])
# 使用变形函数转化结构
# -----------------------第五层---------------------------
with tf.variable_scope('layer9-fc1'):
# 初始化全连接层的参数,隐含节点为1024个
fc1_weights = tf.get_variable("weight", [nodes, 1024],
initializer=tf.truncated_normal_initializer(stddev=0.1))
if regularizer != None: tf.add_to_collection('losses', regularizer(fc1_weights)) # 正则化矩阵
fc1_biases = tf.get_variable("bias", [1024], initializer=tf.constant_initializer(0.1))
# 使用relu函数作为激活函数
fc1 = tf.nn.relu(tf.matmul(reshaped, fc1_weights) + fc1_biases)
# 采用dropout层,减少过拟合和欠拟合的程度,保存模型最好的预测效率
if train: fc1 = tf.nn.dropout(fc1, 0.5)
# -----------------------第六层----------------------------
with tf.variable_scope('layer10-fc2'):
# 同上,不过参数的有变化,根据卷积计算和通道数量的变化,设置对应的参数
fc2_weights = tf.get_variable("weight", [1024, 512],
initializer=tf.truncated_normal_initializer(stddev=0.1))
if regularizer != None: tf.add_to_collection('losses', regularizer(fc2_weights))
fc2_biases = tf.get_variable("bias", [512], initializer=tf.const
没有合适的资源?快使用搜索试试~ 我知道了~
Omniglot数据集分类器的设计与实现——TensorFlow期末考核
共2000个文件
png:28719个
xml:12个
py:7个
需积分: 45 30 下载量 101 浏览量
2020-04-13
16:25:22
上传
评论 4
收藏 182.77MB ZIP 举报
温馨提示
此次资源为期末考核作品,最终评定4.0绩点。(包括数据集、代码<保证可以运行>、设计文档、训练集)使用数据集为Omniglot,也可以使用自己的数据集进行实现,采用框架,采用多次卷积,最终实现5分类(准确率100%),10分类(99%),30分类(50%多,样本集特征不够明显,不能怪我)。大家可以自己参考
资源推荐
资源详情
资源评论
收起资源包目录
Omniglot数据集分类器的设计与实现——TensorFlow期末考核 (2000个子文件)
checkpoint 93B
checkpoint 93B
checkpoint 89B
fc_model.ckpt-2512.data-00000-of-00001 64.74MB
fc_model.ckpt-1000.data-00000-of-00001 63.21MB
fc_model.ckpt-24.data-00000-of-00001 63.18MB
分类器_实验报告.docx 1.21MB
test.iml 291B
test.iml 291B
test.iml 291B
fc_model.ckpt-2512.index 2KB
fc_model.ckpt-1000.index 2KB
fc_model.ckpt-24.index 2KB
fc_model.ckpt-2512.meta 124KB
fc_model.ckpt-1000.meta 110KB
fc_model.ckpt-24.meta 110KB
30次.png 127KB
QQ截图20191228131041.png 108KB
QQ截图20191228133400.png 105KB
QQ截图20191228131256.png 102KB
kaishi.png 100KB
100C.png 100KB
30.png 99KB
50cxun.png 98KB
50ci.png 95KB
训练10次后.png 89KB
QQ截图20191227162428.png 68KB
0431_04.png 486B
0333_06.png 484B
0510_15.png 478B
0317_19.png 475B
0532_18.png 474B
0317_10.png 474B
0339_19.png 467B
0533_13.png 462B
0333_19.png 462B
0338_06.png 461B
0317_17.png 458B
0927_17.png 457B
0339_06.png 455B
0317_15.png 455B
0137_09.png 453B
0137_09.png 453B
0137_09.png 453B
0423_04.png 452B
0533_09.png 450B
0317_14.png 450B
0732_04.png 450B
0533_16.png 449B
0318_19.png 449B
0510_13.png 448B
0348_06.png 448B
0511_18.png 446B
0341_13.png 446B
0533_03.png 445B
0318_17.png 445B
0533_06.png 444B
0336_06.png 443B
0317_06.png 443B
0524_13.png 442B
0350_04.png 442B
0488_17.png 440B
0328_06.png 440B
0533_11.png 438B
0533_15.png 437B
0521_15.png 437B
0488_18.png 437B
0350_19.png 437B
0137_10.png 436B
0333_13.png 436B
0137_10.png 436B
0137_10.png 436B
0524_15.png 435B
0533_18.png 434B
0736_10.png 433B
0510_18.png 432B
0510_09.png 430B
0317_11.png 430B
0328_19.png 429B
0318_18.png 429B
0137_02.png 428B
0319_19.png 428B
0137_02.png 428B
0137_02.png 428B
0534_15.png 427B
0736_04.png 427B
0785_07.png 427B
0732_16.png 426B
0341_01.png 424B
0318_01.png 424B
0317_16.png 424B
0912_16.png 424B
0914_15.png 424B
0510_03.png 423B
0764_03.png 423B
0533_04.png 422B
0342_06.png 422B
0147_09.png 421B
0333_01.png 421B
0430_04.png 421B
共 2000 条
- 1
- 2
- 3
- 4
- 5
- 6
- 20
资源评论
sirwsl
- 粉丝: 8131
- 资源: 13
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 基于Zigbee的智能农业大棚环境检测全部资料+详细文档+源码+优秀项目.zip
- 机械设计三轴模组称重扫码机 sw18可编辑全套设计资料100%好用.zip
- 基于spark的表格实体扩展全部资料+详细文档.zip
- 基于Spark MLlib平台,通过协同过滤算法实现电影推荐功能全部资料+详细文档.zip
- 基于 spark 的 机器 学习 算法全部资料+详细文档.zip
- 基于Spark的电影推荐,ALS交替最小二乘法,基于矩阵分解的协同过滤推荐。全部资料+详细文档.zip
- 基于spark的统一离线ETL框架全部资料+详细文档.zip
- 基于Spark的电商系统全部资料+详细文档.zip
- 基于Spark的交通研判系统全部资料+详细文档.zip
- 基于spark的日志分析工具全部资料+详细文档.zip
- 基于离线模式下数据的spark大数据的处理全部资料+详细文档.zip
- 基于Spark框架的改进并行化综合能源客户识别全部资料+详细文档.zip
- 基于Spark的图书推荐算法全部资料+详细文档.zip
- 机械设计丝杆阀体双工位装配机sw18可编辑全套设计资料100%好用.zip
- 机械设计水下机械人 sw18可编辑全套设计资料100%好用.zip
- python入门-16.学生分组-大佬带队就可以人少啦.py
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功