有思想的大脑,没灵性的AI

来源:互联网 发布:oracle优化书籍 编辑:程序博客网 时间:2024/04/27 17:41
有思想的大脑,没灵性的AI
人工智能、AI、深度学习、智能机器人,最近几年,这些老的概念和技术,又重新被炒热了,都快胡了。
技术方面,只懂一点皮毛(不是谦虚),打算春节过后开始认真调研。
抛开技术,谈谈我的一点认知。

最近几年实践多,思考和反思比较多,知识的量和领域比较多之后,我领悟到了一些共性。
大脑的多元性
总的认识,人类的大脑,绝对是最智能的。
一是,拥有丰富的感情。二是,牛逼的学习能力和逻辑推理。
学习能力和逻辑推理,使得一个人越来越聪明。比如,解决了1个问题,就可以更方便地解决下一个问题,因为解决问题存在共性。
优秀的大脑,可以发现背后的共性。
逻辑推理,是比较客观的,是科学世界的根基之一。
但是,人的感情因素,导致人还有很多主观情绪,精神上的意志。

当今时代,地球人又被“科学精神”给洗脑了,殊不知,人类世界是多元的,科学客观和理性只是其中的“一元”。
人的喜怒哀乐等感情因素,体现了一个人的“灵性”。比如,今天我很饿,一个好心人给了我一个面包。
我的选择是任何人(包括自己)都不可预知的,可能是接过面包很快就吃完了,可能担心被人“鄙视”而不接受,可能吃一口发现不好吃扔了。
这种场景,大家可以去想象,你的选择绝对不止“吃”与“不吃”这2种。

大脑的决策模型
先天性:生下来,就拥有了很多能力和潜能。吃奶属于“能力”,会说话算“潜能”。
先天性,很关键,只要你是“人”,就决定了你今后会说话的概率高达99.99%,决定了你今后不会飞的概率接近100%。
学习能力:有了“先天性”的条件,在后天性的因素(父母,自己的兴趣爱好,随机选择)下,接触到了多种多样的场景,学习了各种能力和技巧。
只要自己“不装死”,你的能力肯定是越来越强的,因为你有学习能力,内在客观因素决定的。

主观意志:等达到一定年龄阶段,你开始有了“自我”,意识到“我”的存在。知道自己是谁,应该做什么,想做什么,能做什么。
比如,发现自己的学习能力不行,可以专门学习“提高个人学习能力”的技巧,进而促进自己快速学习。

实践:学习只是“前奏”,掌握一项能力,最终还是依靠“亲自去做”。在实践中,获得经验,知道了哪些事情是可以做的,哪些是不能的。
比如,用手去摸“火”是很疼的。

结论:在不断的学习和实践中,得出了越来越多的结论。比如,小雷是个好同志,知易行难,看到数学题目答案的时候感觉很简单,但就是想不到。

大脑的决策模型-积土成山
先天性拥有一些能力,后天性随着时间的流逝和实践的增多,得到的结论也越来越多。
积累的足够多,覆盖到“日常生活”的大多数方面的时候了,你就独立了。(积土成山,积水成渊,量变到质变)
在独立之前,你还在不断接受其他“前人”给你传授的经验结论。

大脑的决策模型-逻辑推理
经过自己的学习和实践,得到了很多“结论”,比如“下河游泳”很危险。
但是,如果你学会了游泳,它还是很危险的吗?
不危险了:我可以游过河,可以漂浮等人救我。
更危险了:不下河,肯定不会随意下河游泳,淹死的可能性更小。一旦“学会了游泳”,我更有可能下河,遇到“腿抽筋”,“体力不支”,可能就Game Over了!

通过这么一个例子,可以延伸出以下几个问题。
1、人是有主观意志的
结论是死的,但是每个人面对一件事的时候,都会去思考,去判断。
不同人做出的判断,可能相同,可能不同,绝对不是“固定的”和“唯一的”。
2、结论不是原子的
“下河游泳是否危险”,并不是一个固定的答案。
想要给出正确的答案,需要从“是”和“否”多个方面,全面地去探讨它的“正确性”。
3、过往结论会失效
在你知道“我可以学习游泳游过河”之前,你很可能接受到的信息是“下河游泳很危险,会小命不保”。
但是,当你看到有人在河里并没有淹死,“你之前的结论和世界就崩溃了”。
新的结论等待你去寻找?下河游泳是否危险?那个人为啥没有淹死?

有思想的大脑-逻辑推理
结论是死的,而人是活的,体现在大脑可以“逻辑推理”。
多个结论之间,存在“先后顺序”等规律。
组合多个结论,可以得到更多的结论。
对结论进行归类,可以发现一些共同规律,进而解决同类型的所有问题。

有思想的大脑-主观意志
是否接受别人给我的面包,是“我”说了算!想吃,我就吃。不饿,我可以拒绝。可能有毒,就不吃。丢面子,可以不吃。
在做出决策之前,你会各种复杂的思考:
1、之前的经验,是否允许我吃。
2、想吃的情况下,需要判断哪些因素。
食物是否腐烂了,是否有毒,吃了是否有损健康。
3、生理层面
我现在饿不饿,明天还有没有吃的。
4、心理层面
这哥们是不是没有安好心呀?会不会害我?

没灵性的AI
假装你不知道“是否该吃那个面包”,把这个问题抛给那些机器人和AI。
“主人,这个面包颜色看起来可以,很健康。”
“BD牌的面包,不能吃,难吃的很。”
“妈妈说了,不要吃陌生人给的东西。”

答案满意吗?
一条条地看,也没啥问题,但总感觉“缺点啥”?我们把“缺的那个啥”称作“灵性”。
现在的机器人和AI,都是“死”的,人让它怎么“回答”就怎么回答,是“死”的!

同样的问题,你去问相同的人。
他会给你一个“复杂的答案”,复杂在,他会考虑“对你是否有益”,“是否应该害你”,“对他自己有没有好处”等主观方面的。
还会考虑,“面包有毒”等安全方面。
还可能考虑,“妈妈准备了可口的饭菜,回家吃好吃的去,吃面包多没劲”。

一个“看似简单的问题”,一个人可以有“无比复杂”的思考,考虑方方面面。
而AI就很难,就算都考虑了,它怎么知道“你妈妈准备了饭菜”,它怎么判断“给你面包的人是否可疑”,它怎么“现场去调研”。
一个问题的背后,有无数个问题。

小雷:AI,坐等人的输入,坐等人设计规则和算法,然后给你“看似正确,实则片面的答案”!
可以给出正确答案的“机器”,只能是“科学”、“数字”等客观的事物。
在主观的方面,机器是没有灵性的,因此,不存在智能化的机器。

AI:我不服,小雷你个喷子,你个黑子!你等着,会有人来为我大AI上诉的!

小雷FansUnion-一个指挥机器干活的程序员
0 0
原创粉丝点击