2 . AlexNet(2)

2 . AlexNet(2)
2 . AlexNet(2)
2 . AlexNet(2)
x 输入数据 数据种类 (为2 因为只包含猫狗)
keep_prob 也就是dropout层的参数
skip layer 为不需要使用伯克利初始化的层 。
权重位置参数 最后是网络创建函数create的调用

下图是 create 函数调用情况
2 . AlexNet(2)

pool5后 把得到的 进行 reshape函数 变成一个向量

下面是conv 函数实现细节

2 . AlexNet(2)

首先获取最后一个维度也就是通道数
下面是 匿名函数 对i k 进行了卷积操作
然后 定义一个名与name相同的命名空间 对 权重和bias进行初始化
判断是否需要分组操作
2 . AlexNet(2)
2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)
2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)
2 . AlexNet(2)

2 . AlexNet(2)
批量大小一般设置为2的n次方 lr num_epoch batch_size drop num_class 都是可以修改的超参数
train_layer 是指需要训练学习的层 因为是微调

2 . AlexNet(2)
验证测试期间网络不需要训练 所以shuffle= FALSE
get_next 获取下一批量的数据;
2 . AlexNet(2)
初始化两个数据迭代器
x 为图像的占位符 y为标签的占位符 第三个为dropout层参数的占位符
tf.placeholder 程序运行时再给他赋值 并且占位符不属于变量不会进行训练 定义时必须指定类型
2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

2 . AlexNet(2)

相关文章: