这篇文章给大家介绍mxnet模块怎么在Python中使用,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
创新互联公司,为您提供重庆网站建设、成都网站制作、网站营销推广、网站开发设计,对服务成都凿毛机等多个行业拥有丰富的网站建设及推广经验。创新互联公司网站建设公司成立于2013年,提供专业网站制作报价服务,我们深知市场的竞争激烈,认真对待每位客户,为客户提供赏心悦目的作品。 与客户共同发展进步,是我们永远的责任!具体如下:
import gluonbook as gb from mxnet import autograd,nd,init,gluon from mxnet.gluon import loss as gloss,data as gdata,nn,utils as gutils import mxnet as mx net = nn.Sequential() with net.name_scope(): net.add( nn.Conv2D(channels=32, kernel_size=5, activation='relu'), nn.MaxPool2D(pool_size=2, strides=2), nn.Flatten(), nn.Dense(128, activation='sigmoid'), nn.Dense(10, activation='sigmoid') ) lr = 0.5 batch_size=256 ctx = mx.gpu() net.initialize(init=init.Xavier(), ctx=ctx) train_data, test_data = gb.load_data_fashion_mnist(batch_size) trainer = gluon.Trainer(net.collect_params(),'sgd',{'learning_rate' : lr}) loss = gloss.SoftmaxCrossEntropyLoss() num_epochs = 30 def train(train_data, test_data, net, loss, trainer,num_epochs): for epoch in range(num_epochs): total_loss = 0 for x,y in train_data: with autograd.record(): x = x.as_in_context(ctx) y = y.as_in_context(ctx) y_hat=net(x) l = loss(y_hat,y) l.backward() total_loss += l trainer.step(batch_size) mx.nd.waitall() print("Epoch [{}]: Loss {}".format(epoch, total_loss.sum().asnumpy()[0]/(batch_size*len(train_data)))) if __name__ == '__main__': try: ctx = mx.gpu() _ = nd.zeros((1,), ctx=ctx) except: ctx = mx.cpu() ctx gb.train(train_data,test_data,net,loss,trainer,ctx,num_epochs)
关于mxnet模块怎么在Python中使用就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。