用机器学习解决LeetCode问题

来源:互联网 发布:露华浓淘宝是真的吗 编辑:程序博客网 时间:2024/06/07 13:22

导语

机器学习是一种使以计算机为代表的电子设备具备一定智能的技术,是人工智能的重要技术组成之一。特别是近年来以深度学习为代表的机器学习迅猛发展,使得人们的生活逐渐发生质的变化,机器学习从来没有像今天这样受到人们的热切关注。其实机器学习并不是高端到不可亵玩的东西,它只是利用计算机强大的计算能力来解决不能直接求解的数学问题,也就是说让计算机在某一个假设空间内寻找一个映射函数,将输入映射为我们需要的结果。既然我们给计算机规定了任务,为了让他自动的完成这个任务,我们当然需要告诉他该怎么做,虽然从表面上看不出来我们对计算机做了什么,但他已经从大量的数据中学得了有用的经验,这样足以使得计算机从表面上看有了一定的智能。

传统的数据结构与算法可以用编程语言解决,这种解决方法的核心在于时间复杂度和空间复杂度上的优化和提升,给定输入,计算机按照算法的指示一步步运算,输出对应的结果,这是一种显式求解的过程,并具有很强的解释性。那能不能通过机器学习解决传统的算法问题呢?我们试试看。

LeetCode问题描述

机器学习虽然强大,但到目前为止,还不能解决所有的问题,因此考虑到可行性,选取了一道具有代表性的算法题,尝试利用机器学习求解。

leetcode[412]:Fuzz Buzz 是LeetCode中难度为easy的题目,题目本身并没有什么难度,关键是如何将它转化为机器学习任务,其问题描述如下:

给定一个正整数n,按规则输出从1至n之间的数对应的结果。规则为:若数是3的倍数,输出“Fizz”,若数是5的倍数,则输出“Buzz”,若既是3的倍数也是5的倍数,则对应的输出为“FizzBuzz”,否则输出原来的数。

举例:
n = 15,
Return:
[
“1”,
“2”,
“Fizz”,
“4”,
“Buzz”,
“Fizz”,
“7”,
“8”,
“Fizz”,
“Buzz”,
“11”,
“Fizz”,
“13”,
“14”,
“FizzBuzz”
]

该题若用Python,解法如下:

class Solution(object):    def fizzBuzz(self, n):        """        :type n: int        :rtype: List[str]        """        res = []        for i in range(1,n+1):            if i%3==0 and i%5==0:                res.append('FizzBuzz')            elif i%3==0:                res.append('Fizz')            elif i%5==0:                res.append('Buzz')            else:                res.append(str(i))        return res

现在我们将算法题转化为机器学习问题,计算机能否准确识别题目本来的含义,从而正确的给出我们想要得到结果呢?

问题转化

按照题目要求,输出的结果共有4类:Fuzz、Buzz、FuzzBuzz、other,other表示数字本身,机器学习的目的就是自动学得题目的要求,这就是一个四分类的监督学习问题。

我将构造一个极简单的单隐层的神经网络,输入数据量为4096条,对应的标签也为4096。由于是四分类问题,故标签维度为4,采用one-hot表示法。输入数据表示一个正整数,此处有多种表示方法,比如位表示法,binary表示法等,为了使得模型尽量简单,输入数据维度尽量低,因此采用binary表示法,即将输入的正整数表示成二进制,我构造了4096条数据,对应2的12次方,因此输入维度为12.

接下来就是构造神经网络了。我采用了TensorFlow框架,对于上述问题而言,单隐层的网络已足够解决问题,激活函数采用非线性化relu,可以加快模型的训练速度。

划分数据集,训练集和测试集的比例是7:3,要想获得好的模型效果,需要不断调整模型参数,因此需要多次试验。由于过程比较简单,下面直接上代码。

构造数据集
# -*- coding: utf-8 -*-import numpy as np# 数据总量,2**data_sizenum_size = 12data_size = 2**num_sizedef fizzBuzz(n):    """    :type n: int    :rtype: List[str]    """    res = []    for i in range(1, n + 1):        if i % 3 == 0 and i % 5 == 0:            res.append('FizzBuzz')        elif i % 3 == 0:            res.append('Fizz')        elif i % 5 == 0:            res.append('Buzz')        else:            res.append(str(i))    return resdef generate_data():    dataSet = np.arange(1, data_size+1)    labels = fizzBuzz(data_size)    return np.array(dataSet), np.array(labels)def label_to_categorical(data):    labels = []    for i in range(len(data)):        if data[i] == 'Fizz':            labels.append([1, 0, 0, 0])        elif data[i] == 'Buzz':            labels.append([0, 1, 0, 0])        elif data[i] == 'FizzBuzz':            labels.append([0, 0, 1, 0])        else:            labels.append([0, 0, 0, 1])    return np.array(labels)def binary_encode(i, num_digits):    return np.array([i >> d & 1 for d in range(num_digits)])def data_formation(labels):    labels = label_to_categorical(labels)    data_df = np.array([binary_encode(i, num_size) for i in range(2 ** num_size)])    return data_df, labels
构造模型训练并测试性能
from sklearn.model_selection import train_test_splitimport tensorflow as tf# 测试集比例testing_percentage = 0.3# 训练参数learning_rate = 0.03num_steps = 1000batch_size = 128display_step = 100# 模型参数n_hidden = 16 # 单隐层网络节点数num_input = num_size # 输入节点数num_classes = 4 # 四分类问题输出节点数为4keep_prob = tf.placeholder(tf.float32)X = tf.placeholder("float", [None, num_input])Y = tf.placeholder("float", [None, num_classes])weights = {    'h1': tf.Variable(tf.random_normal([num_input, n_hidden])),    'out': tf.Variable(tf.random_normal([n_hidden, num_classes]))}biases = {    'b1': tf.Variable(tf.random_normal([n_hidden])),    'out': tf.Variable(tf.random_normal([num_classes]))}# 定义网络结构def neural_net(input):    layer_1 = tf.nn.relu(tf.add(tf.matmul(input, weights['h1']), biases['b1']))    output = tf.matmul(layer_1, weights['out']) + biases['out']    return outputdef main():    dataSet, labels = generate_data()    dataSet, labels = data_formation(labels)    # 划分数据集    X_train, X_test, y_train, y_test = train_test_split(dataSet, labels, test_size=testing_percentage)    print X_train.shape, X_test.shape, y_train.shape, y_test.shape    logits = neural_net(X)    prediction = tf.nn.softmax(logits)     # 损失函数    loss_op = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=Y))    optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)    train_op = optimizer.minimize(loss_op)     # 模型准确率    correct_pred = tf.equal(tf.argmax(prediction, 1), tf.argmax(Y, 1))    accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))     # 初始化    init = tf.global_variables_initializer()    with tf.Session() as sess:        sess.run(init)        for step in range(1, num_steps + 1):            for start in range(1,len(X_train),batch_size):                # start = (step*batch_size) % data_size                end = min(start+batch_size, data_size)                sess.run(train_op, feed_dict={X: X_train[start:end], Y: y_train[start:end]})            if step % display_step == 0 or step == 1:                loss, acc = sess.run([loss_op, accuracy], feed_dict={X: X_train[start:end], Y: y_train[start:end]})                print("Step " + str(step) + ", Minibatch Loss= " + \                      "{:.4f}".format(loss) + ", Training Accuracy= " + \                      "{:.3f}".format(acc))        print("Optimization Finished!")        print("Testing Accuracy:", sess.run(accuracy, feed_dict={X: X_test, Y: y_test}))

训练过程和效果如下图:

这里写图片描述

结论

从上图可以看出在训练集上损失降到了0,准确率达到了100%,模型完全拟合了训练集,因为任务的函数空间很小,而含单隐层的神经网络理论上可以表示任意的函数,只要训练轮数足够,可以完全拟合训练集。测试集上的准确率也很高,达到了97.8%,可以说模型充分学习了我们给他的任务,也就是说给定任意一个正整数,模型给出的预测97.8%的概率和标准结果相等,可以说模型基本完成了学习任务。

原创粉丝点击