数学之美---数学本来就很美

来源:互联网 发布:2016人工智能大会 编辑:程序博客网 时间:2024/06/06 08:25

原来写过一篇推荐数学之美的文章,但是一个不小心被我删除了,所以要重新写,但怎么也找不回那种感觉。我个人参加过很多的数学建模竞赛,也拿过一些奖,所以对数学模型有莫名的亲切感,同时也对各种算法有一定的了解,数学建模中主要用到的一些高级算法比如模拟退火、神经网络、遗传算法、支持向量机等等都已经比较成熟,所以问题的关键在于如何把一个实际问题抽象为一个数学问题,通过逻辑建立模型,无论是微分方程模型亦或是非线性模型,都可以找到数学的解,然后数学解带到实际问题中检验,从而验证模型的合理性,所以解决问题的好坏并不在于模型的复杂程度,更不在于算法的高级程度,越是简单的算法可以合理的解决问题就是针对这个问题最好的模型与算法,而数学的美就在于简洁之美,数学本来就很美。
其实,数学从来就不是我们所了解的那样只有抽象的数字、符号、公式和定理。数学产生之与生活,它的美对应将实际问题抽象成数学逻辑问题,通过简单的数学工具加以解决,并反馈到生活中。简单就是数学之美的真谛。由于个人经历问题,这里这是介绍一些数学模型供大家学习参考,如果要深入学习各个模型,仍需要阅读原著以及相关的论文。

1.统计语言模型

原著的作者吴军是通信专业出身,所以他首先从自然语言的发展出发,自然语言处理又叫nlp,它经历了从规则到统计的发展历程。统计语言模型用于机器翻译、语音识别、拼写纠错、汉字输入、文献查询等方面。
统计语言模型的基本数学表述为

P(w1,w2,...,wn)=P(w1)P(w2|w1)P(w3|w1,w2)P(wn|w1,w2,...,wn)

上述模型的条件概率P(wn|w1,w2,...,wn)比较难以估计,可以引入马尔科夫假设,上述表达变为
P(w1,w2,...,wn)=P(w1)P(w2|w1)P(w3|w2)P(wn|wn1)

上述公式对应的就是二元统计语言模型。

2.信息熵

H(X)=xXP(x)logP(x)

香农最重要的贡献之一。香农在信息领域的地位大致相当于冯诺依曼、图灵在计算机领域的机会。香农用比特定量化了信息。从上式可以看出变量的不确定性越大,熵也就越大。有了熵的概念,信息被定量化,例如,不考虑上下文,汉字的信息熵大约8-9比特,所以一本汉字书可以用确定大小的文件来存储。

1 0