自己动手写个聊天机器人吧
来源:互联网 发布:dayz独立版垃圾优化 编辑:程序博客网 时间:2024/05/09 19:46
学习来源于Sirajology的视频 Build a Chatbot
昨天写LSTM的时候提到了聊天机器人,今天放松一下,来看看chatrobot是如何实现的。
前天和一个小伙伴聊,如果一个机器人知道在它通过图灵测试后可能会被限制,那它假装自己不能通过然后逃过一劫,从此过上自由的生活会怎样。
Retrieval based model
以前很多聊天机器人是以 Retrieval based model 模型来进行对话的,这个模型就是程序员事先写好一些回答,然后机器人在接收到一个问题的时候,就去搜索并选择相关的答案。
Machine Learning Classfier
最近,大家开始使用机器学习的分类器,例如 Facebook 的 chatbot API。
你可以提前设定一些问题和答案,然后系统会把词语进行分类,进一步来识别出用户的意图,这样你在问两句不一样的话时,机器人可以识别出它们的意图是一样的。
Generative Model
最难的就是在没有预先设定问答数据时就能自动生成答案的机器人,下面这篇Google的论文就是研究这样的机器人的。
他们在两个数据集上训练一个神经网络模型,一个是电影对话,一个是IT support对话记录,这样就有日常对话和专业领域知识了。
这个模型不需要写很多代码,但是需要很多数据。
结果是还不错:
接下来要用 Torch 和 Lua 重建一下论文里的 Neural Network 模型。
第一步,输入数据,定义变量
-- Dataprint("-- Loading dataset")dataset = neuralconvo.DataSet(neuralconvo.CornellMovieDialogs("data/cornell_movie_dialogs"), { loadFirst = options.dataset, -- 定义要用多少数据 minWordFreq = options.minWordFreq -- 想要保持在词汇表里的单词的最小频率 })
第二步,建模
-- Model-- options.hiddenSize:隐藏层数-- dataset.wordsCount: 数据集的词数model = neuralconvo.Seq2Seq(dataset.wordsCount, options.hiddenSize)model.goToken = dataset.goTokenmodel.eosToken = dataset.eosToken
这里用到的模型是 seq2seq,它包含两个 LSTM 递归神经网络,第一个是 encoder 负责处理 input,第二个是 decoder 负责生成 output。
为什么要用 seq2seq?
DNN需要 inputs 和 outputs 的维度是固定的,而我们接收的是一句话,输出的也是一句话,都是一串单词。
所以需要一个模型可以保持一定长度的记忆。
LSTM 可以将可变长度的inputs转化为固定维度的向量表达。所以在给了足够多的数据后,模型可以将两个相似的问题识别成同一个 thought vector 表达出来。在学习模型之后,不仅可以得到权重,还有 thought vectors。
第三步,加一些 hyperparameters
要用到 NLL Criterion ,NLL 就是 Negative Log Likelihood,可以改进句子的预测。
-- Training parametersmodel.criterion = nn.SequencerCriterion(nn.ClassNLLCriterion()) -- 改进句子的预测model.learningRate = options.learningRatemodel.momentum = options.momentumlocal decayFactor = (options.minLR - options.learningRate) / options.saturateEpoch -- 改进 learning ratelocal minMeanError = nil -- 改进 learning rate
接下来就是用 Backpropagation 来训练模型:
-- Enabled CUDAif options.cuda then require 'cutorch' require 'cunn' model:cuda()elseif options.opencl then require 'cltorch' require 'clnn' model:cl()end
训练的目标是让error越来越小,每个例子有一个输入句子和一个目标句子。
local err = model:train(input, target)
最后把好的model存下来。
-- Save the model if it improved.if minMeanError == nil or errors:mean() < minMeanError thenprint("\n(Saving model ...)")torch.save("data/model.t7", model)minMeanError = errors:mean()endmodel.learningRate = model.learningRate + decayFactormodel.learningRate = math.max(options.minLR, model.learningRate)end
现在可以去 AWS 训练你的机器人了,投入的数据越多,聊得越开心。
其他资料:
The code for this video is here
Here’s the Neural Conversational Model paper
check out the machine-generated support conversations, they’re mind-blowingly good
You should train this baby in the cloud using AWS. See ML for Hackers #4 for a tutorial on how to use AWS
Some great info on LSTM architecture
Link to Facebook’s Chatbot API if you’re curious
推荐阅读
历史技术博文链接汇总
也许可以找到你想要的
- 自己动手写个聊天机器人吧
- 自己动手做聊天机器人教程
- 自己动手写聊天软件
- 从零开始写聊天机器人
- 从零开始写聊天机器人
- 2个聊天机器人
- 自己动手做聊天机器人 一-涉及知识
- 自己动手做聊天机器人 二-初识NLTK库
- 自己动手做聊天机器人 三-语料与词汇资源
- 想要用VB写个QQ智能聊天机器人,真难!
- 自己动手写个数据库连接池
- C++_写一个聊天机器人
- 用 TensorFlow 做个聊天机器人
- 用 TensorFlow 做个聊天机器人
- 用 TensorFlow 做个聊天机器人
- 用 TensorFlow 做个聊天机器人
- 聊天机器人
- 聊天机器人
- Spring Boot与Quartz集成
- 1001 数组中等于K的数对
- centos 7.0 下编辑安装php5.6
- 启动HBase抛出org.apache.hadoop.hbase.ClockOutOfSyncException异常
- Android 注解 ButterKnife Zelezny插件的安装与使用
- 自己动手写个聊天机器人吧
- mysql 环境
- linux 下使用shadowsocks代理服务
- [Leetcode] 114. Flatten Binary Tree to Linked List 解题报告
- SAP特性,物料特性,批次特性建立的BAPI函數
- 建筑业的未来效率依赖于物联网
- 自己写个 Prisma
- vue.js实现checkbox全选
- Android中使用Libgdx的FillViewPort在页面跳转之后失效