成都网站建设设计

将想法与焦点和您一起共享

Keras中怎么使用tensorboard-创新互联

这篇文章主要讲解了“Keras中怎么使用tensorboard”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Keras中怎么使用tensorboard”吧!

创新互联建站专注为客户提供全方位的互联网综合服务,包含不限于成都网站建设、成都网站制作、宁陕网络推广、小程序制作、宁陕网络营销、宁陕企业策划、宁陕品牌公关、搜索引擎seo、人物专访、企业宣传片、企业代运营等,从售前售中售后,我们都将竭诚为您服务,您的肯定,是我们大的嘉奖;创新互联建站为所有大学生创业者提供宁陕建站搭建服务,24小时服务热线:028-86922220,官方网址:www.cdcxhl.com

方法一(标准调用方法):

采用keras特有的fit()进行训练,只要在fit的时候指定callbacks函数即可,代码如下

from keras.callbacks import TensorBoardfrom keras.models import Sequential……model = Sequential()……tbCallBack = keras.callbacks.TensorBoard(log_dir='./Graph',histogram_freq=1,write_graph=True,write_images=True)model_history = model.fit(X_train_train,y_train_train,batch_size=batch_size,epochs=epochs,verbose=1,validation_data=(X_train_val, y_train_val),callbacks = [EarlyStopping(patience=patience,mode='min',verbose=1),history,tbCallBack])

虽然这种方法看上去很美,但它只适用于标准训练方法,如果你想用自己的训练方法,就需要调用train_on_batch,而不能直接使用fit(),这时就要采用下面这种方法:

方法二(特殊调用方法):

这种方法可用于调用train_on_batch的情况。

%预先写好writer,定义好modelwriter = tf.summary.FileWriter(…)model = …%训练时loss = model.train_on_batch(…)summary = tf.Summary(value=[tf.Summary.Value(tag=”d_loss”, simple_value=d_loss),tf.Summary.Value(tag=”g_loss”, simple_value=g_loss),])writer.add_summary(summary)

虽然很简单,但这种方法只能显示scalar类型,不能显示image,histgram等,非常不实用。真正实用的是下面的终结方法:

方法三(最实用的方法)

最实用的还是用tensorflow原生的调用方法,虽然相对方法二麻烦一点,但考虑到此方法与tensorflow一样,不需要去记那些额外的花拳绣腿,因此反而是最简单的,也是最有效的。

代码如下:

import tensorflow as tfimport datetime%在训练开始之前,预先定义好可视化的东西,用的是原生的tensorflow方法,这里我们以一个GAN模型为例,让它显示整张模型图,两个标量损失函数,以及5个生成图像。方法是预先用placeholder声明所要显示的那些东西,然后在训练过程中将训练结果来填充它们。你可以自行加入histgram,都和tensorflow一样#start tensorboardsess=tf.Session()logdir = “tensorboard/” + datetime.datetime.now().strftime(“%Y%m%d-%H%M%S”) + “/”writer = tf.summary.FileWriter(logdir, sess.graph)D_LOSS = tf.placeholder(tf.float32, [])G_LOSS = tf.placeholder(tf.float32, [])IMAGES = tf.placeholder(tf.float32,shape=[None,28,28,1])tf.summary.scalar(“D_LOSS”, D_LOSS)tf.summary.scalar(“G_LOSS”, G_LOSS)tf.summary.image(“IMAGES”, IMAGES, 5)merged=tf.summary.merge_all()#end tensorboard

训练迭代过程中,是这样的

for epoch in range(100):% 用keras的train_on_batch方法进行训练d_loss = d.train_on_batch(。。。。。。)g_loss = d_on_g.train_on_batch(。。。。。。)generated_images = g.predict(。。。。。。)if index%10==0: #tensorboard% 将训练结果填充可视化数据summary=sess.run(merged,feed_dict={D_LOSS:d_loss, G_LOSS:g_loss, IMAGES:generated_images})writer.add_summary(summary,index)

感谢各位的阅读,以上就是“Keras中怎么使用tensorboard”的内容了,经过本文的学习后,相信大家对Keras中怎么使用tensorboard这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联网站建设公司,,小编将为大家推送更多相关知识点的文章,欢迎关注!


当前名称:Keras中怎么使用tensorboard-创新互联
本文链接:http://chengdu.cdxwcx.cn/article/deiscc.html