使用keras实现非线性回归的方法-创新互联
创新互联www.cdcxhl.cn八线动态BGP香港云服务器提供商,新人活动买多久送多久,划算不套路!
让客户满意是我们工作的目标,不断超越客户的期望值来自于我们对这个行业的热爱。我们立志把好的技术通过有效、简单的方式提供给客户,将通过不懈努力成为客户在信息化领域值得信任、有价值的长期合作伙伴,公司提供的服务项目有:空间域名、虚拟空间、营销软件、网站建设、中阳网站维护、网站推广。小编给大家分享一下使用keras实现非线性回归的方法,希望大家阅读完这篇文章后大所收获,下面让我们一起去探讨吧!
我就废话不多说了,大家还是直接看代码吧~
import keras import numpy as np import matplotlib.pyplot as plt #Sequential 按顺序构成的模型 from keras.models import Sequential#Sequential是模型结构,输入层,隐藏层,输出层 #Dense 全连接层,Activation激活函数 from keras.layers import Dense,Activation from keras.optimizers import SGD x_data=np.linspace(-0.5,0.5,200)#从-0.5到0.5范围内生成200个随机点 noise=np.random.normal(0,0.02,x_data.shape)#生成和x_data形状一样的噪声 y_data=np.square(x_data)+noise #显示随机点 #plt.scatter(x_data,y_data) #plt.show() #构建一个顺序模型 model=Sequential() #1-10-1,添加一个隐藏层 model.add(Dense(units=10,input_dim=1,activation='relu'))#units是隐藏层,输出维度,输出y,input_dim是输入维度,输入x #model.add(Activation('tanh'))#给这一层添加一个双曲正切激活函数tanh函数 model.add(Dense(units=1,input_dim=10,activation='relu'))#input_dim可以不写,它可以识别到上一句的输出是10维 #model.add(Activation('tanh'))#给这一层添加一个双曲正切激活函数tanh函数 #定义优化器 sgd=SGD(lr=0.3)#学习率提高到0.3,训练速度会加快 model.compile(optimizer=sgd,loss='mse')#编译这个模型,sgd是随机梯度下降法,优化器.mse是均方误差 #训练模型 for step in range(5001): #每次训练一个批次 cost=model.train_on_batch(x_data,y_data)#代价函数的值,其实就是loss #每500个batch打印一次cost值 if step %500==0: print('cost:',cost) #打印权值和偏置值 W,b=model.layers[0].get_weights()#线性回归,只有一层 print('W:',W,'b:',b) #x_data输入网络中,得到预测值y_pred y_pred=model.predict(x_data) #显示随机点s plt.scatter(x_data,y_data) #显示预测结果 plt.plot(x_data,y_pred,'r-',lw=3)#r-表示红色的线,lw表示线宽 plt.show()
分享标题:使用keras实现非线性回归的方法-创新互联
URL分享:http://cdiso.cn/article/csgogd.html