大道至简吗

最近朋友圈有一篇关于90后的研究报告,其中有个统计是说有超过一半的90后最喜欢的休闲娱乐方式为宅在家里上网。近期一到周末不是大太阳就是大雨,我也选择宅在家里虚耗着,抽空把吴军的数学之美看完了。估计前面的报告也是基于90后在网上的行为数据统计分析出来的,趁着宅赶紧把看过之后的印象比较深的几点写写!


作者在书中提的最多的观点是:在现实生活中,真正能够通用的工具在形式上必定是简单的!通览全书,每个高大上的IT工具背后必然隐含着一个简单的数学公式模型,大道至简,一目了然。总结为四个关键词:信息源、方向、根源、简单!即解决问题之道在于:找出全面准确的信息源,在正确的方向上发力,找到干扰因素的根源,用简单的形式加以解决!


香农在其“通信的数学原理”提出了“信息熵”的概念,解决了信息的度量问题,并且量化出信息的作用。即信息量就等于不确定性的多少。举个例子,要从一个知情人口中知道32人中哪个是冠军,其代价是你每猜一次他要收一元钱才告诉你是否猜对!你可以把人编号,从1到32,然后问“冠军在1~16号中吗”,他若告诉你猜对了则你可问冠军在1~8号中吗,假如他告诉你猜错了,你自然可知冠军在9~16号中,以此类推,只需5次便可知哪个人是冠军。因此谁是冠军这条信息的信息量只值5块钱。若用比特(Bit,一个比特是一位二进制数)来代替钱,则这条消息的信息量是5比特。若是64人,则“谁是冠军”的信息量就是6比特,因为要多猜一次。这时你会发现信息量的比特数和所有可能情况的对数函数log有关。(log32=5,log64=6)


但是每个人夺冠的可能性(概率)是不等的,大概谁会是冠军总能定位到其中可能性最大的几位中,因此给每个人配个概率,即准确的信息量:


H=—(P1*logP1+ P2*logP2+…+PnlogPn)


“信息熵”的模型就是这样推演出来的。可见问题总能通过数学建模的方式予以定量化。最后拼的是数据量的规模和运行速度。根据摩尔定律,现在的存储已不是问题,加上云计算和网络积累的大数据,一切皆有可能!


信息的作用就是消除不确定,搜索的本质也是利用信息消除不确定性的过程,用户不断地通过新的关键词来挖掘新的隐含信息,从而找到自己需要的信息,消除不确定性,这就是相关搜索的理论基础。


世界上没有比二进制更简单的计数方法了,它只有两个数字:0和1。人类之所以用十进制是因为人有10个手指,但是单纯数字角度来讲,比十进制更合理。中国古人八卦演绎的阴阳鱼可以说是最早的二进制雏形,伏羲比炎黄二帝还要久远。


刘慈欣的《三体》中讲到三体游戏中有一个有趣的描写,就是秦始皇在冯诺依曼的指导下用几千万大军通过红白两旗推演人肉计算机来预测恒纪元的到来,靠的就是简单的布尔代数原理!


布尔代数简单得不能再简单,运算的元素只有两个:1(TRUE,真)和0(FALSE,假)。基本的运算只有“与”(AND)、“或”(OR)和“非”(NOT)三种。这三种运算都可以转换成“与非”一种运算。


用office的EXCEL和一些财务软件的人知道你,“与非或”是数据筛选的重要逻辑语言,无论是数据透视表,各种函数运算都难离其中。而正是这简单的布尔代数成为了电子计算机的数字电路基础。


1938年提出信息熵的香农在其硕士论文中指出用布尔代数来实现开关电路。多有的数学和逻辑运算,加、减、乘、除、乘方、开方,等等,全都能转换成二值的布尔运算,正是依靠这一点,人类用一个个开关电路最终“搭出”电子计算机!


投资理论有个著名的比喻:即不要把所有的鸡蛋放在一个篮子里,这样可以降低风险,在数学上,这个原理称为最大熵原理。举个例子,比如一个骰子,我问你每个面朝上的概率分别是多少,我相信你会说是六分之一。因为对这个“一无所知”的骰子,假定它每面朝上的概率均等是最安全的做法(你不应该主观假设它像韦小宝的骰子一样灌了铅)从投资的角度看,这就是风险最小的做法,从信息论的角度来讲,就是保留了最大的不确定性,也就是让熵达到最大。


最大熵原理指出,对一个随机事件的概率分布进行预测时,我们的预测应当满足全部已知的条件,而对于未知的情况不要做任何主观假设,就是说当我们遇到不确定性时就要保留各种可能性。


同样最大熵模型可以通过引入一个指数函数来描述,形式非常简单,但是却能够解决很多复杂的问题,如语言的句法分析、语言模型和机器翻译等,很多对冲基金通过使用最大熵模型取得很好的效果。


“你见或不见,它就在那里!”大道至简,却无所不包,包含了一切不确定因子的状态就是最大的确定性,辩证关系如斯之透彻!


最后讲讲云计算和大数据吧!云计算的最主要原理是分治算法原理,即吴军所说的“各个击破法”:即将一个复杂问题分成若干个简单的子问题进行解决,然后对子问题的结果进行合并,得到原有的问题的解。


映射到数学问题就是,一个数组过大,无法在一台计算机上完成时,可以把数组拆分成多个矩阵,这样每台服务器只需运行一个小矩阵,最后将各个矩阵相乘合并得到原先原始数组的解!所谓的云就是把多台服务器连接,集中力量办大事。Google大脑的人工神经网络很唬人,其原理也是分而化之。即从输入节点X1,X2先跟最近的中间节点S进行线性匹配,S再跟输出节点Y进行非线性函数的匹配Y=f(S),一环扣一环形成爬虫式的连接和抓取,最后得出相对精确的结果。Y=f(S)非线性函数常用的函数是指数函数,用的就是最大熵模型。


云计算只是工具,数据是开始也是结果,输入和输出节点永远是数据,所以数据可以重复利用,滚动形成大数据!大数据的作用不言自明。大数据的解决方式遵循演绎方法,即从一般到特殊。对于一些人类目前科技达不到的棘手问题,从归纳切入不现实,而大数据能够从宏观上找到跟问题症结相关性最大的因子,再倒推去分析造成相关性的内在原因。只要数据够大,万物相生相克,总能找到其中一丁点端倪。


信息海洋太过浩瀚,即使学海作舟尚只能看到海面上的冰山一角,而海面下的冰山尚待发掘,无知方能敬畏!

展开阅读全文

页面更新:2024-04-01

标签:骰子   信息量   布尔   代数   不确定性   节点   概率   函数   模型   大道   原理   冠军   数学   简单   数据   信息

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top