【机器学习】tensorflow: GPU求解带核函数的SVM二分类支持向量机

来源:互联网 发布:iphone手机助手软件 编辑:程序博客网 时间:2024/06/06 04:48

SVM本身是一个最优化问题,因此理所当然可以用简单的最优化方法来求解,比如SGD。2007年pegasos就发表了一篇文章讲述简单的求解SVM最优化的问题。其求解形式简单,但是并没有解决核函数计算量巨大的问题。这里给出了一个tensorflow的带核函数的SVM的解法,使用GPU加速,并且支持在线学习。
pegasos给出的优化公式如下:

argminλ2i,jαiαjK(xi,xj)+1Nimax{0,1yijαjK(xi,xj)},α0predict:y=αiyiK(x,xi)

我用rbf核函数来试验一下。其中数据以半径为10的圆圈分割成两个部分。tensorflow代码如下:

sigma = 0.5kkx = np.square(np.tile(x[:,0].T,[x.shape[0],1])-np.tile(x[:,0],[1,x.shape[0]]))#print(kkx)kkx += np.square(np.tile(x[:,1].T,[x.shape[0],1])-np.tile(x[:,1],[1,x.shape[0]]))kkx = np.sqrt(kkx)kkx = np.exp(-sigma * kkx )lam = 1./2.batch = x.shape[0]with tf.device('/gpu:0'):#使用GPU计算    alpha = tf.Variable(tf.random_uniform([batch,1],-1.0,1.0))    alpha = tf.maximum(0.,alpha)    KX = tf.placeholder("float", shape=[batch,batch])    y = tf.placeholder("float", shape=[batch,1])    loss = lam*tf.reduce_sum(tf.matmul(alpha,tf.transpose(alpha))*KX)    tmp = tf.matmul(KX, alpha)    tmp = y*tmp    tmp = 1. - tmp    tmp = tf.maximum(0.,tmp)    tmp = 1./batch*tf.reduce_sum(tmp)    loss += tmp    optimizer = tf.train.GradientDescentOptimizer(0.0002)    train_op = optimizer.minimize(loss)

为了简化,KX直接用numpy计算好K(xi,xj)之后传入。经过优化后,我们取出α,这里我不去掉0,就直接套用在原来的数据上进行预测:

resA = sess.run(alpha)predict=np.multiply(resA,x[:,2])#print(predict.shape)predict=np.sum(np.multiply(predict,kkx),axis=0)predict = predict.Tpredict=np.tile(predict,[1,3])#print(predict>0.0)ax = np.array(x)predictSet1=ax[predict>0.0].reshape([-1,3])predictSet2=ax[predict<0.0].reshape([-1,3])fig = plt.figure()ax = fig.add_subplot(211)ax.scatter(x=data1[:,0],y=data1[:,1])ax.scatter(x=data2[:,0],y=data2[:,1])ax = fig.add_subplot(212)ax.scatter(x=predictSet1[:,0],y=predictSet1[:,1])ax.scatter(x=predictSet2[:,0],y=predictSet2[:,1])fig.show()

得到图像如下:
这里写图片描述
上图是原始数据集,下图是预测集。可以看出来,tensorflow能够优化求解svm,比较万金油。

2 1
原创粉丝点击