博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
【深度学习笔记】batchsize, time step(iteration), epoch 区别与联系
阅读量:2135 次
发布时间:2019-04-30

本文共 300 字,大约阅读时间需要 1 分钟。

 

一、定义

变量 含义
epoch 一个epoch表示训练集中所有训练样本训练学习一遍
time step / iteration 每运行一个time step / iteration,更新一次参数权重,即进行一次学习,每一次更新参数需要batch size个样本进行运算学习,根据运算结果调整更新一次参数。
batchsize 1次迭代所使用的样本数量

二、三者的联系:

iteration = ( exampleNumsepoch​ )/ batchsize

三、例子:

假设训练集中有1000个样本,batch size=20,epoch=1,那么完成一个epoch需要50个iteration。

 

转载地址:http://juugf.baihongyu.com/

你可能感兴趣的文章
TensorFlow-11-策略网络
查看>>
浅谈 GBDT
查看>>
如何选择优化器 optimizer
查看>>
一文了解强化学习
查看>>
CART 分类与回归树
查看>>
seq2seq 的 keras 实现
查看>>
seq2seq 入门
查看>>
什么是 Dropout
查看>>
用 LSTM 做时间序列预测的一个小例子
查看>>
用 LSTM 来做一个分类小问题
查看>>
详解 LSTM
查看>>
按时间轴简述九大卷积神经网络
查看>>
详解循环神经网络(Recurrent Neural Network)
查看>>
为什么要用交叉验证
查看>>
用学习曲线 learning curve 来判别过拟合问题
查看>>
用验证曲线 validation curve 选择超参数
查看>>
用 Grid Search 对 SVM 进行调参
查看>>
用 Pipeline 将训练集参数重复应用到测试集
查看>>
PCA 的数学原理和可视化效果
查看>>
机器学习中常用评估指标汇总
查看>>