我是豆豆

吃饭,睡觉,打豆豆

好多时候,我好喜欢佛教的那一套:缘起缘灭,因果循环。虽然我知道这些只是表面上的一些说法,实际深入研究会是另一番解释。然而这样正好,太远太近都不合适,这份距离恰恰合适。

而这就是一个距离恰好的故事,女孩美丽大方,品学兼优,为了自己的梦想努力,在毕业之后也进入了大公司,在里面步步晋升,就好像别人家的孩子一样。那你说这个故事有没有男孩,有,在不同的班级,在不同的小区,在不同的大学甚至在不同的城市,他们之间的交集用点来表示,数量繁多但不重要,甚至不被人察觉,但这并不妨碍女孩在男孩心中的地位,男孩在年段红榜上见到过女孩,男孩固定周末去女孩的小区打球,为了能在球场上看到女孩,男孩也在每天去食堂的路上走后面的楼梯,因为他会经过女孩的窗前。两人并不认识,也没有交流,但是这恰好的距离让男孩在心中补全了剩下的拼图。哪怕多年以后,男孩还是抱着那份拼图怀念,思绪。

这一切的缘也许是那一瞥,也许是那一次照面。反正就像佛教的因果循环一样。没有理由,没有逻辑,甚至没有可以解释的地方。他们会说这样好浪漫,好美。这里面没有任何现实的东西,都是美好的,没有共处,没有争吵,没有冲突。有的只是一个爱和被爱的人,爱的人满足了他的幻想,被爱的人也没有被这份爱情所困扰,完美的爱情,往往是脱离一切的现实,是悬浮的,是瞬间的。在逻辑和现实下,爱情会变成一些荷尔蒙,会变成一些生物性征。但这并不妨碍我们追求美。我们追求的爱情之美。PS 只要别被这份美蒙蔽了现实就是。

对于爱情的美,我们希望是伟大的,是宏大的,是众人皆知的,是甜蜜的。他不同于英雄之美,英雄之美在于救赎,在于一人之力。而爱情之美,在于挈合,在于凹凸。不,不,不是性,或者说不止是性,爱情之美在于以我之剑,刺子之鞘,反过来也是一样。追求的两者心之所向。他不一定山崩地裂,也没必要海枯石烂,也许就是昨夜星辰,画楼西畔。由大至小,由远及近的。

就如我上面所说的,最好的爱情就是发生在两个没有关联的人之间,他们各自从对方获得自己所需要的东西,在他们需要的时候。我本来想拿一部电影来举例的,但是发现似乎没有一部电影能将这件事完美的表达出来,所有的爱情电影都是在打碎或者撕破完美的爱情来制造悬念或者深思的,他们从中探讨和探究什么是完美的爱情:似乎就是爱情之美在于不爱。

20220915202924

python+数学有没有搞头啊?

肯定有啊

————星周驰

这本书我看下来,很好,很强大。

他不是那种上来就是直接各种算法,也不是那种完全小白的告诉你数组,列表,数据类型等等。

他更多的是一个数学加python的一个实践,就是你初中,高中学的,加减乘除。我们有时候看着那些高深的算法,不清楚她的构成,也不知道,我如果是一个兴趣自学的python程序员,我需要怎么样提升,或者加深自己对程序的理解。那么这本书就很合适,讲了类,讲了原细胞,讲了遗传算法。都是从零自己构建,不是用现成的库。现成的库有现成的好处,但是我们作为一个需要理解其过程的初学者,是很适合一本难度不大,但是一点点累计我们对程序,对面向对象这个概念的理解。

书本很短,就几章。用的例子都是传统的数学游戏,无论是猜大小,还是路线问题,我们都多多少少在初高中学习的时候见过,那时候用的方法繁琐且计算庞大。现在你可以直观的看到计算机的强大,而不是只会使用加减乘除,枚举,迭代,线性变换都是高阶数学的入门。

我个人是十分推崇有在学完python的基础操作之后,如果想往机器学习或者数据方向发展,拿这本书作为一个过渡很是不错。对数学功底要求不高,讲的都是自己知道的,只是将他换成python执行而已。

20220822200117

周末无聊,就带了几个孩子去电影院看了下《新神榜:杨戬》20220821221115,看完之后,我只想说:“日你妈,退钱”

20220821220746

这片完全就是营销的产物,属实除了营销一点不剩了,就是个垃圾。我是当初看了姜子牙片尾的宣传片才对这片充满期待,然后发现就是个大便。追光全家都是大便。

首先从剧情来说:这部片的剧情很简单:沉香救母。没了,就这么简单,刨去了靠嘴巴说的设定,片的内容就是沉香救母。这剧情,完全就是一片段一片段接在一起的。开头来段抓人表现杨戬的牛逼,然后是故作玄虚的来个机会引杨戬来主线,主线就是沉香一块块集齐宝莲灯,然后就是最后boss自爆,杨戬开眼,绝地反杀,再劈山救母,没了。你故事简单也可以,你至少讲好一个故事吧,对不起,讲不好,我是站着赚钱的,故事那是跪着的,做不来。故事的逻辑bug比比皆是:

  1. 沉香师傅为啥要死?沉香师傅本身就对沉香不好,大可来一个劝反,告诉沉香事实,让沉香偷走宝物,然后逃走。不行,要死,而且死的不明不白,好歹是二师兄,没个过场就这么死了。

  2. 申公豹为啥要死?你说师傅死,有可能失手,有可能有你不想浪费笔墨,但是申公豹你给弄死了,巫山神女来一句:“我看救不活了,给补刀了。”我他么的,你是神女,不是变态,人家救不活慢慢死不行啊,用你补刀,而且他师兄都没下狠手,你倒好。直接给补了,他师兄要想杀他用的着你。你这不会做人啊。申公豹完全就是和二师兄出来打酱油的,看起来好像要重点着墨申公豹为何如此的原因,但是又点到为止,告诉你我背后有好大的秘密,但是我不告诉是什么秘密。对此,我只想说:“去你妈的”

  3. 魔家四将又是谁的,这四个工具人到底是那一派的:公家?还是师傅?你杨戬不好奇么?你查一下不就知道,除了你还有谁在弄沉香,也就可以证明背后到底是不是师傅,证明巫山神女的话到底是不是对的,妈的,就是不查,我等师傅自己自爆。这他么的编剧脑袋里面是装大便了。喜欢突突的自己出来么?

  4. 除了剧情逻辑不同,人物的逻辑也是变态。我,杨戬,无父无母,就一个妹妹,妹妹因为救苍生牺牲自己,我把他儿子带到师傅那里。那老头说:“成年之前不要来看他。”????

20220821220842

我给你侄子取名叫沉香,我也不告诉你一声。????

20220821220905

你侄子杀了他师傅。我也没想通知你。????

20220821220937

妈的,这怕是个假舅舅,假哥哥吧。你师傅把他分配给了脾气最不好的二师兄,你也不给你侄子走走后门?玛德,这杨戬不会也是个变态吧

  1. 然后就是巫山神女,她谁啊,自我介绍是杨禅的闺蜜,但是没有个前情提要,后面山劈开了,也没打声招呼,委托照顾下孩子。然后你沉香怎么就叫上她姥姥了,你啥时候和她勾搭上的,是申公豹引荐的么,沉香你这样子很容易被骗哦。还有姐姐,你之前不是在乐坊里面跳舞么?怎么说走就走啊?你这样下份工作职调的时候HR可不会给你说好话的哦。

  2. 这片里面除了杨戬都是工具人,开头快30分钟抓的那个卖假药的,也是一个工具人,抓了,然后没了。宝莲灯回忆的时候碎成那么多片。收集的时候就一个灯罩,一个灯油,一个灯芯,行了,齐活。宝莲灯用来干啥的不知道,有什么神奇能力不知道。劈山用的是他舅的斧头,要灯干啥。照明么?

  3. 故事的主线也是不清不楚,正邪两方为啥要打,沉香为啥要劈山?救母?他妈已经和那个啥化为一气了,他不知道?而且你这举目无亲的,不想着先投靠下舅舅,一出来就这么大的志向?那师傅为啥不让他劈山呢?人类浩劫?自己的金霞洞?两个是绑在一起的,山开洞没了,人类还有一场打劫。那么这个电车难题还用选?肯定不劈开啊。杨戬直到最后一刻都没说他是为啥劈开,你就算不管金霞洞,你不管人类浩劫?那巫山神女的动机是啥?我闺蜜被压在下面,要救?我他么的,我都不知道师傅最后是不是黑化了?他说的很对啊,开山人类浩劫,金霞洞只是个添头,一举两得,你杨戬有什么理由劈开,劈开救你妹?你妹早就没了。那你劈开干啥。来场大劫害苍生,那你14年前为啥救呢?还有那些师叔师伯,东西都借了,人为啥不来,现在倒好,这些东西回不来了,以后杨戬拿着每个东西,去登门拜访,你怎么搞,你是和平的一方,现在杨戬开山乱世,你不是该出兵讨伐?

这片的剧情完全就是一坨屎,你讲一个故事好歹要逻辑自洽,前后呼应。你倒好,写到哪算哪,通篇就是卖弄我后面有个宏大的设定,吊足你的胃口,吊了整整2小时,是个人都受不了。然后就是立意。你说,你作为一个故事片,好歹有点东西吧。《魔童降世》为啥大火,就是人家有一个符合大众价值取向的立意:我命由我不由天。讲的是一个人定胜天的故事,看完让人心血澎湃。一个好的故事片除了讲好一个故事,还有让观众共情,连《唐人街探案》都会想着用母亲为了孩子食物出卖身体这种下三滥的手段去引起观众的共情,你倒好,一点共情的方法方式都没有,反而处处透露着人情的冷漠。师兄杀师弟,哥哥不管妹妹的孩子,甚至连沉香我都没有共情到他妈有多好,值得我这么去救么。哥哥啊,你要让观众共情啊,沉香想救他妈不是没有理由的,有可能是小时候被欺负没有妈妈保护,想着想救,有可能听到妈妈还活着,在华山下受苦受难想救。而不是我他么的就想救我妈,怎么了,这就是理由。

现在的这些编剧真的是太高高在上了,他们似乎没有了普通人的情感了,要真是一个如此受尽磨难的孩子,逃出来之后,估计躲躲藏藏的,然后过上平凡的生活。母亲是伟大的,但是生活是现实的,你需要让我们这些生活在现实的人去感受到为何沉香要如此坚定的救母,可以来点情节,来点回忆,甚至来点被人欺负,让观众知道母亲的宝贵。妈的,这傻逼片从头到尾就没有这种操作,你妈的你就是学唐探得下三滥操作也可以,至少让我知道你是一个专业人士,只是技术太差而已。

这片就这样微博上还都是:帅,好看得评价。妈的,再看微博推荐我就是狗,微博就是垃圾场。这片凡是吹画面好的,都是拿钱得。吹剧情得,都是拿钱得傻逼。这片完全就是一片专门拿来营销得玩意儿:有cp,有帅哥,有逗趣,还有那让人想起须佐能乎得画面。反正你们吹吧,我话放这了,这片就是垃圾。

二哥是我为数不多大学还在联系的人,也是我仅剩的毕业之后还在一座城市的同学。

于是乎,时不时的隔三岔五的就想小聚一番,主要是二哥想。我和二哥交流不深,主要是二哥太幼稚了,心眼不坏,所以可以安心交往,但是幼稚的人思想比较极端。而且还藏不住,所以有时候也不胜其烦。小聚主要是二哥提出的。二哥在厂里干活,厂里的食堂没煮什么好料,虽然二哥自己隔三岔五的改善伙食,但还是想要出来吃一顿。二哥很胖,比大学时候还胖,如果说大学时候的二哥是懒胖,那现在的二哥就是吃胖。两种成因不同。大学时候二哥一天吃一顿,一顿顶三顿,而且除此之外不再下床,专心魔兽。那现在他懒不了了,没有可以让他一天不下床的工作了,于是他就在吃上面花了心思。

二哥赚得不多,所以很抠,二哥不隐瞒自己的抠,或者不想隐瞒。二哥每次约饭都是自助,他喜欢自助,他吃的不多,或者比常人多一点,但也绝对不是那种吃回本的饭量,但是二哥还是喜欢,二哥喜欢那么多东西,可以任他挑选的感觉,这让他很满足。二哥约饭是完全为了饭,不是为了我。如果我今天没空,他明天还会约,约到我答应为止。原因有二,一是一个去吃自助,虽然不是不行,二哥试过,但是感觉不好。哪怕是二哥强大的内心,也抵挡不住。二是还可以跟同学见面,同学见面也要吃饭,自己嘴馋也要吃饭,一件事当两件事做,多划算。二哥心里有自己的小算盘,虽然这算盘响的我都知道了。但我不介意。

我们每次吃饭,吃饭的时间多于聊天的时间,在没有了大学宿舍的限制,二哥似乎更加失去言语沟通的能力。他不说自己的事,也不说公司的事,他说不明白,或者他不明白我不明白的点,没办法针对那个点再加以说明,所以一旦我表示不理解,他只会语气加重的重复之前说过的话。一来二去,我也就慢慢熟悉了,他说的都是对的。二哥吃自助也是有原则的,贵的不吃,便宜的,找不到。所以每次都是在那不上不下的段位吃的自助,吃的不算太好,都是冷冻的,但也能满足二哥对种类的需求。二哥对他这个需求曾经给过我一个解释:两个人出去吃饭,点菜的话,万一菜好吃,一个人多吃了一点,那另一个人不是吃亏了,还是自助好,想吃多少拿多少。二哥说的都是对的。二哥对自己的食量很有信心,我看过,比别人多30%~50%,代价是现在90kg的体重和扶墙出。我曾想劝二哥:后来想想,还是算了,这也许是他为数不多的快乐了。

二哥家里穷,大学时候都是几百几百的给的,实际上不算太穷,就是普通的务农家里,养几个孩子吃喝是没问题的,但是禁不住二哥喜欢玩。二哥最高峰的时候手里有9台手机,都不贵,几百,几十。二哥喜欢这种不贵,但是买很多的感觉。9台手机供着他五六个电话号码,因为他每有一个喜欢的套餐就办一个,比如一台手机专门用来12点以后看小说的,一台手机是塞班系统的,可以改壁纸等等。二哥手机多,但是经常联系不上,因为太多号码,谁也不知道他带哪个出门。一来二去,大家也就不存他的号码,反正他喝醉了会打过来。二哥除了手机还喜欢电脑,但是他买不起,我还记得他大一买了一台绝版的IBM的笔记本,连视频都播放不了,但是二哥还是满心欢喜。那台电脑花了他180。但是没给他带来任何用处,他做作业还得借别人电脑。后面二哥才买了一台神州笔记本,不过大多数时候是来玩魔兽世界的。二哥买电脑的钱是省下来的,开源节流对二哥来说,只有节流这么一个选项。二哥懒,懒到不想出去赚钱,在他身上我可以看到我村里的那些叔叔伯伯,他们不会想着如何增加收入,而是躺在床上喝酒,他们对生活看得绝望,不想为生活付出任何一点努力。二哥也是。二哥总是自己先否定自己的想法,念头,以及一切。在多年以后,二哥已然接受这个想法,甚至以此为自己的优点,洋洋得意。

二哥大学没有毕业,是肆业。原因很多,但是归根结底在二哥自己。二哥是少数民族,高考优惠政策+预科班,然后来我们学校,基础差不是问题,学校考试也不是特别难,哪怕就是混也能混到毕业。但是二哥不想混,他不屑。挂科之后学校会给一次机会补考,那次一般比较简单,只要念应该就可以过。但是二哥不念,那时候的二哥展现了人类在诱惑面前的劣根性。那时候二哥沉迷魔兽世界,所以在临近补考的那段时间,经常能看到二哥白天玩游戏,晚上8,9点去自习室读书,然后11点回来,懊悔自己又浪费了一天。就这样二哥错过了自己最有可能毕业的一次机会。那时候二哥前景很好,已经在中国移动公司实习,拿到毕业证就可以入职。至少比现在好很多。小雨说都是魔兽世界害了他,我觉得并不尽然,魔兽世界只是二哥逃避现实的工具,不是魔兽世界也有可能是其他东西,比如他的哪个手机挂机小游戏。二哥为了这个游戏专门买了一台手机用来挂机。后面的两次补考,进入社会的二哥更加没有心思去学习,挂了也是正常的。所以二哥从待毕业变为了肆业。

肆业后的二哥就开始破罐破摔了,什么工作都做,但什么都做不长,当过药店销售,当过其他零零散散的,也曾经在我的出租屋内睡了一个月的地板,我不让他跟我一起同床,因为他不洗澡,几个月不洗的那种,从大学就那样。后面慢慢的我就去了厦门,和二哥联系也少了。我只知道后来二哥在厂里当网管,这个工作一直做到了现在,工资不高,但是管吃管住还是一人间,二哥很满意,我也很满意。

二哥_2_2

二哥_2_1

《概率导论》终于是读完了,如果说前面几个章节还算是我能够自己学习并且理解的话,到了后面已经完全的变为了纯数学概念的转换。无论是贝叶斯还是切比雪夫链,我光是看都看不懂,于是,我的建议是后面的几个张章节的衍生,还是自己另外找视频辅助。书本确实比较符合我们的思维速度,所以一开始建立基础知识的时候,看书可以帮助我们更好的理解,但是到了后面,尤其是数学,很多时候简单的一个符号就需要大量的计算和理解,所以我们需要视频辅助,根据视频讲解的内容让我们更好的理解这些概念。

这就像是我最近在辅导孩子的数学作业一样的感受,如果说我在孩子这个年纪,那些数学的方法和思维让我想,凭空想出来,说实话我想不出来,而且就算是想出来了,没有经常使用,随着时间或者当时的状态,我估计我也搞不清楚这些概念和规律的。但是那天教学孩子的时候,我在自己做了两道题之后就发现了其中的奥妙,然后花费2个下午的时间将这个奥妙分解成孩子能够理解的语言,简单而言就是通过将分数乘法转变为分数减法来计算有规律的分数的n项之和。这种题目一般不会是数学卷子的最后大题,但是会是倒数第二道那种地位,属于不是强制要求,但是考验你思维灵活度的题目。如果你理解了,看懂了,那么这种题目做起来就得心应手,不会,也不会对你的基础知识有太多的影响。

现在想来,数学就是这么一样东西。数学是一个不定的学科,他的高阶题目是没有一个定论的。是,有时候是有比如取对数将乘法变为加减这种小技巧,但是正如之前所说,这些小技巧一般对应的是特殊的题目,不具备广泛性,所以,很多时候你光记住技巧是没有用处的,更加需要的是你的思维。而数学的一个基本思维就是:将不知道的问题变为已知的问题。就好像笑话说的:一个数学家看到房子着火的话会找来消防队,如果这个房子倒塌了,那么数学家就会把房子点着火,然后再来找到消防队。这就是一个基本的数学思维,万剑归宗般的一套解决理论。那么我们是记不住那一万把剑的,所以我们只需要记住那个思维就行,而如何记住这些思维:我觉得就是刷题。遇见的事务多了,你就自然而然的了解其中的真谛。

这大概就是我大学高数挂科的原因了吧,高中的我数学算不上好,但也属于能答对最后一道大题的几个人之一吧,但是到了大学,高数最后还是靠老师的施舍才能过。我尤为记着拿到大学考试的时候拿到的高数卷子:这是什么,怎么和课本上的完全不一样啊。我还停留在课本上,但是老师出的已经超出了课本。在看《概率导论》的最后几章节时候,我是看的晕乎转向的,什么是最大似然,为啥取最大?实际意义,或者数学意义在哪?然后不得已,B站找了个视频观看,原来是对应求最大可能性的概率,原来是概率分布下的概率乘数最大化,来计算概率。简单明了,再去翻看书里,隐晦,难懂,上来就是假设,然后公式,没有一点铺垫。所以单单看书本是无法完全理解这些方法的内容的,其实很简单:通过样本数据反推数据发生的概率,通过对数求导,再求和,计算出最大值。反馈到实际意义就是这件事发生的概率。

20220730154010

这算是一个总结吧,要完全理解一个数学概念还是需要刷题,需要看视频,读几本一样的数,不如多刷几道题目,教材一本就够,其他的靠自己刷题理解。

数据概率导论

基础知识

  • 集合

    1. 集合运算:并,交,补

    2. 集合代数:德摩尔定律即补集的并集等于原集的交集反之亦然

  • 概率模型

    1. 样本空间:空间内结果相斥

    2. 概率率:1.非负性,2.可加性,3.归一化

      • 概率律性质

        • 若$A\subset B,则P(A) \leq P(B) $

        • P(AB)=P(A)+P(B)P(AB)P(A \cup B )=P(A)+P(B)-P(A\cap B)

        • P(AB)P(A)+P(B)P(A\cup B)\leq P(A)+P(B)

        • P(ABC)=P(A)+P(AcB)+P(AcBcC)P(A \cup B \cup C)=P(A)+P(A^c \cap B)+P(A^c\cap B^c \cap C)

    3. 序贯模型:针对有序事件

    4. 离散模型:样本空间内由有限个可能的结果组成:P(s1,s2,,sn)=P(s1)+P(s2)++P(sn)P({s_1,s_2,\dotsb,s_n})=P(s_1)+P(s_2)+\dotsb+P(s_n)

    5. 连续模型:试验的样本空间为连续集合

    6. 贝特斯悖论:对于同一事件不同的模型导致结论不确定。例:三门问题。

    7. 条件概率:P(AB)=事件AB的试验结果数事件B发生的试验结果数=P(AB)P(B)P(A|B)=\frac{事件A\cap B的试验结果数}{事件B发生的试验结果数}=\frac{P(A\cap B)}{P(B)}是一个概率律.

      • 乘法规则:P(i=1nAi)=P(A1)P(A2A1)P(A3A1A2)P(Ani=1n1Ai)P( \cap _{i=1}^nA_i)=P(A_1)P(A_2|A_1)P(A_3|A_1\cap A_2)\dotsb P(A_n|\cap_{i=1}^{n-1}A_i)
    8. 全概率定理:P(B)=i=1nP(AnB)P(B)= \sum_{i=1}^n P(A_n \cap B)20220606101748

      • 与条件概率的差异

        • 全概率是通过样本空间事件AiA_i和目标事件B相交概率反算出B事件的概率

        • 条件概率为事件A在事件A和B共同发生的前提下的概率

      • 贝叶斯准则:A1,A2,,AnA_1,A_2,\dotsb,A_n为互补相容的事件,且形成样本空间的所有分割

        • 不是很重要的推导过程P(AiB)=P(AiB)P(B)=P(Ai)P(BAi)P(A1)P(BA1)++P(An)P(BAn)P(A_i|B)=\frac{P(A_i\cap B)}{P(B)}=\frac{P(A_i){P(B|A_i)} }{P(A_1)P(B|A_1)+\dotsb +P(A_n)P(B|A_n) }

        • P(AB)P(A|B)P(BA)P(B|A)联系到一起,且可以进行因果推理。

    9. 独立性:P(AB)=P(A)    P(AB)=P(A)P(B)P(A|B)=P(A)\iff P(A\cap B)=P(A)P(B)其中P(B)>0P(B)>0

      • 条件独立:P(ABC)=P(AC)P(BC)    P(ABC)=P(AC)P(A\cap B|C)=P(A|C)P(B|C)\iff P(A|B\cap C)=P(A|C)
    10. 一组事件独立:任意两两事件且所有事件相互独立

      • 独立试验序列:重复的相互独立的试验

      • 如果结果只有两种可能称为:伯努利试验序列:p(k)=(nk)pk(1p)nkp(k)={n\choose{k} }p^k(1-p)^{n-k}

        • 其中(nk){n\choose{k} }为二项式系数n!k!(nk)!\frac{n!}{k!(n-k)!},为nnkk组合数
      • 计数法

        • r阶段的结果:n1n2nrn_1n_2\dotsb n_r

        • n选k排列:n!(nk)!\frac{n!}{(n-k)!}

        • n选k组合:二项式系数(nk)=n!k!(nk)!{n\choose{k} }=\frac{n!}{k!(n-k)!}

        • 分割:(nn1)(nn1n2)(nn1nr1nr){n \choose{n_1} }{n-n_1 \choose{n_2} }\dotsb { {n-n_1-\dotsb -n_{r-1} } \choose{n_r} }


离散模型:值域为有限个集合

  • 分布列:用pXp_X表示随机变量XX的分布:pX(x)=P({X=x})p_X(x)=P(\{X=x\})

    • 伯努利随机变量:pX(k)={p,k=11p,k=0.p_X(k)=\begin{cases} p,若k=1, \\ 1-p,若k=0. \end{cases}

    • 二项随机变量:

      pX(k)=P(X=k)=(nk)pk(1p)nk,k=0,1,,np_X(k)=P(X=k)={n \choose{k} }p^k(1-p)^{n-k}, k=0,1,\dotsb,n

    • 几何随机变量:pX(k)=(1p)k1p,k=1,2,3,p_X(k)=(1-p)^{k-1}p,k=1,2,3,\dotsb

    • 泊松随机变量:

      pX(k)=eλλkk!,k=0,1,2,3,p_X(k)=e^{-\lambda}\frac{\lambda^k}{k!},k=0,1,2,3\dotsb,

    • 随机变量的函数:

      pY(y)={xg(x)=y}pX(x)p_Y(y)=\sum_{ \{x|g(x)=y\} }p_X(x)

  • 离散分布列之间关系

    • 伯努利随机是n=1n=1二项随机变量,二项随机变量是为在nn次的kk次成功,而几何随机这是一种累计直至第kk次成功,泊松随机变量更具有现实意义,在n很大,p很小即大规模发生事件下的小概率发生事件应用
  • 多个随机变量的联合分布列:

    • 联合分布并没有严格区分离散模型和连续模型,只是因为模型不一样导致计算过程不一样。

    • pX,Y=P(X=x,Y=y)p_{X,Y}=P(X=x,Y=y),其中pX,Yp_{X,Y}称之为联合分布,将pX(x)=ypX,Y(x,y),  pY(y)=xpX,Y(x,y).p_X(x)=\sum_y{p}_{X,Y}(x,y),\quad\;p_Y(y)=\sum_x{p}_{X,Y}(x,y).为边缘分布。

  • 条件:正如第一章,所有概率都会有条件和独立的问题存在。这是全概率准则的基础。

    • 单一事件的随机变量:pXA(x)=P(X=xA)=P({X=x}A)P(A)p_{X|A}(x)={\rm P}(X=x|A)=\frac{ {\rm P}(\{X=x\}\cap{A})}{ {\rm P}(A)}

    • 给定另一个随机变量值的条件下的随机变量:$$

    • 给定另一个随机变量值的条件下的随机变量:pXY(xy)=P(X=xY=y)p_{X|Y}(x|y)={\rm P}(X=x|Y=y)公式pX,Y(x,y)=pY(y)pXY(xy)p_{X,Y}(x,y)=p_Y(y)p_{X|Y}(x|y),或利用pX,Y(x,y)=pX(x)pYX(yx)p_{X,Y}(x,y)=p_X(x)p_{Y|X}(y|x)

  • 独立性

    • 定义:P(X=xA)=P(X=x)P(A)=pX(x)P(A)对一切x成立{\rm P}(X=x 且 A)={\rm P}(X=x){\rm P}(A)=p_X(x){\rm P}(A) 对一切 x 成立,如果P(A)>0P(A)>0,则P(X=xA)=pXA(x)=pX(x)对一切x成立.{\rm P}(X=x 且 A)=p_{X|A}(x)=p_X(x) 对一切 x 成立.
  • 条件独立:

    • 随机变量之间的相互独立性与随机变量和随机事件的相互独立性的概念是完全相同的.

一般随机变量:连续随机变量

  • 连续随机变量和概率密度函数(PDF):

P(XB)=bf(x)dxP(X\in B)=\displaystyle\int_b{f(x)}{dx}我们称f(x)f(x)为X的概率密度函数,

  • 端点无用:P(X=a)=aaf(x)dx=0P(X=a)=\displaystyle\int_a^a{f(x)}{dx}=0,所以区间端点的概率计算无用:P(aXb)=P(a<Xb)=P(aX<b)=P(a<X<b)P(a\leq X\leq b)=P(a < X\leq b)=P(a\leq X < b)=P(a < X < b)

  • 关于PDF性质的小结:

    1. XX 的PDF(概率密度函数)为 fX(x)f_X(x) .fX(x)0f_X(x)\geq 0对一切 x 成立.且可以大于1

    2. fX(x)dx=1\int^\infty_{-\infty}f_X(x)\text{d}x=1

    3. 设 δ 是一个充分小的正数, 则 P([x,x+δ])fX(x)δ\text{P}([x,x+\delta])\approx f_X(x)\cdot\delta.其中P([x,x+δ])\text{P}([x,x+\delta])满足概率律,所以fX(x)f_X(x)是可以大于1的

    4. 对任何实数轴上的子集BBP(XB)=BfX(x)dx{\rm P}(X\in{B})=\displaystyle\int_{B}{f}_X(x)dx.

  • 常见分布列

    1. 均匀随机变量:即f(X)f(X)[a,b][a,b]上均匀分布

    2. 指数随机变量:$f_X(x)=\begin{cases}

    \lambda e^{-\lambda x},若x\geq 0 \

    0 ,其他\end{cases}$

    1. 正态随机变量:fX(x)=12πσe(xμ)2/(2σ2),f_X(x)=\frac1{\sqrt{2\pi}\sigma}{\rm e}^{-(x-\mu)^2/(2\sigma^2)},

      • 线性变换之下,随机变量的正态性保持不变,体现在方差和期望

      • 正态随机变量 Y 的期望μ\mu为0, 方差σ2\sigma^2为1,则 Y 称为标准正态随机变量

      • 结合上述性质,可以将非标准快速转换为标准,再利用标准正态速查表进行快速计算正态分布的结果


期望,均值,方差

  1. 期望:

    • 期望:我们把px×xpx\times x称之为期望值M=E[X]M=E[X]

    • 离散期望值为M=m1k1+m2k2++mnknkM=\frac {m_1k_1+m_2k_2+\dots+m_nk_n}{k},这是期望值得原本定义,在这边假定了kk值很大,将kikpi\frac {k_i}{k} \approx p_i,最后得出E[X]=xxpX(x)E[X]=\sum_x xp_X(x)

    • 连续随机期望依据定义:E[X]=xfX(x)dx.{\rm E}[X]=\int_{-\infty}^{\infty}xf_X(x){d}x.

    • 通常我们会将其看作分布列的重心

    • 期望规则

      • 随机变量Y=aX+bY=aX+b,则E[Y]=aE[X]+b,var[Y]=a2var(X)E[Y]=aE[X]+b,var[Y]=a^2var(X)

      • var(X)=E[X2](E[X])2var(X)=E[X^2]-(E[X])^2

    • 条件期望:根据定义E[XA]=xxpXA(x){\rm E}[X|A]=\sum_xxp_{X|A}(x)

  2. 方差

    • 方差:记作var[X]var[X],var[X]=E[(XE[X])2]var[X]=E[(X-E[X])^2]

    • 标准差:σX=var(X).\sigma_X=\sqrt{\text{var}(X)}.

    • 连续随机方差:var(X)=E[(XE[X])2]=+(xE[X])2fX(x)dx\text{var}(X)=E[(X-E[X])^2]=\int_{-\infty}^{+\infty}(x-E[X])^2f_X(x)dx

    • 两者都是衡量XX在期望周围的分散程度,方差衡量标准为平方米,而标准差为米。

  3. 常用的随机变量的均值和方差

    • 伯努利随机变量:E[X]=1p+0(1p)=p\\E[X]=1\cdot{p}+0\cdot(1-p)=p\\,E[X2]=12p+02(1p)=p{\rm E}[X^2]=1^2\cdot{p}+0^2\cdot(1-p)=p\\,var(X)=E[X2](E[X])2=pp2=p(1p)\text{var}(X)={\rm E}[X^2]-({\rm E}[X])^2=p-p^2=p(1-p)

    • 离散均匀随机变量E[X]=a+b2,var[X]=(ba)(ba+2)12\\E[X]=\frac{a+b}{2},\\var[X]=\frac{(b-a)(b-a+2)}{12}

    • 二项分布式:E[X]=np\\E[X]=np,var(X)=i=1nvar(Xi)=np(1p)\\\text{var}(X)=\sum_{i=1}^n\text{var}(X_i)=np(1-p)

    • 泊松随机变量:E[X]=λE[X]=\lambda,var(X)=E[Y2](E[Y])2=λ(λ+1)λ2=λvar(X)=E[Y^2]-(E[Y])^2=\lambda(\lambda+1)-\lambda^2=\lambda

    • 几何变量:E[X]=1p{\rm E}[X]=\frac 1 p

    var(X)=E[X2](E[X])2=2p21p1p2=1pp2.\\\text{var}(X)={\rm E}[X^2]-({\rm E}[X])^2=\frac2{p^2}-\frac1p-\frac1{p^2}=\frac{1-p}{p^2}.


    • 均匀随机变量:

      E[X]=a+b2E[X]=\frac{a+b}{2}\\,var(X)=E[X2](E[X])2=a2+ab+b23(a+b)24=(ba)212.\text{var}(X)={\rm E}[X^2]-({\rm E}[X])^2=\frac{a^2+ab+b^2}3-\frac{(a+b)^2}4=\frac{(b-a)^2}{12}.

    • 指数随机变量:E[X]=1λvar(X)=1λ2{\rm E}[X]=\frac1\lambda\quad\text{var}(X)=\frac1{\lambda^2}

    • 正态分布:E[X]=μ,var(X)=σ2.{\rm E}[X]=\mu,\quad\text{var}(X)=\sigma^2.

极限理论

  1. 大数定律:所以当 nn\to\infty时,MnM_n 的方差趋于0.也就是说,MnM_n 的分布大部分就必然与均值 μ\mu特别接近.这种现象就是大数定律的内容,即随机变量序列 MnM_n,从大样本意义上看,收敛于 $X_i $的均值 μ\mu .按通常的解释,当样本量很大的时候,从 X 抽取的样本平均值就是 E[X] ,大数定律就为此提供了一个数学理论基础.

  2. 中心极限定理:用 SnS_n 减去 nμn\mu ,可以得到零均值随机变量序列 S_n-n\mu ,然后再除以σn\sigma\sqrt{n},就得到随机变量序列Zn=Snnμσn.Z_n=\frac{S_n-n\mu}{\sigma\sqrt{n} }.易证明E[Zn]=0,   var(Zn)=1.{\rm E}[Z_n]=0, \ \ \ \text{var}(Z_n)=1.因为ZnZ_n的均值和方差不依赖于样本容量 n ,所以它的分布既不发散,也不收敛于一点.中心极限定理 就研究ZnZ_n的分布的渐近性质,并且得出结论:当nn充分大的时候,ZnZ_n的分布就接近标准正态分布.

  3. 马尔可夫不等式:P(Xa)E[X]a{\rm P}(X\geq a)\leq \frac{ {\rm E}[X]}{a}

  4. 切比雪夫不等式:随机变量 X 的均值为 μ\mu,方差为σ2\sigma^2,则对任意 cc%3e0 ,P(Xμc)σ2c2{\rm P}(|X-\mu|\geq c)\leq \frac{\sigma^2}{c^2}

  5. 通过上述四个理论,大数定理和中心极限提供了数学理论基础,而马尔可夫不等式和切比雪夫不等式则计算出来一定的概率上限。


古典模型:P(A)=含事件A的结果数nP(A)=\frac{含事件A的结果数}{n}

概率律的所有性质都在后续有应用,基于不同的模型。

条件概率也满足概率律的所有性质:P(ACBC)P(AC)+P(BC)P(A|C\cup B|C)\leq P(A|C)+P(B|C)

试着使用现实意义进行描述贝叶斯准则:通过事目标件B在特定条件下的发生概率,来反推出事件B在无条件或者特定样本空间下的概率。即在通过结果来反推出发生原因的概率。

继续不是很重要的推导过程,中间用到条件概率的乘法法则:P(ABC)=P(ABC)P(C)=P(C)P(BC)P(ABC)P(C)=P(BC)P(ABC)    P(BC)P(ABC)=P(AC)P(BC)    P(ABC)=P(AC)P(A\cap B|C)=\frac{P(A\cap B \cap C)}{P(C)}=\frac{P(C)P(B|C)P(A|B\cap C)}{P(C)}=P(B|C)P(A|B \cap C) \iff P(B|C)P(A|B \cap C)=P(A|C)P(B|C) \iff P(A|B\cap C)=P(A|C)

组合数即意味着含有次序

试图证明泊松变量和二项随机变量的逼近:设n,p0n\to \infty,p\to 0, 且np=λnp= \lambda将二项随机变量:$$\begin{align*}\frac{n!}{k!(n-k)!}pk(1-p){n-k}\end{align*}n=\frac{\lambda}{p}得到只剩下得到只剩下\lambda的式子,求极限。总结下对应意义就是在试验次数的式子,求极限。总结下对应意义就是在试验次数n很大的情况下,很大的情况下,p很小,则无限接近二项随机变量。现实意义就是:如果大规模事件出现小概率事件的次数很小,则无限接近二项随机变量。现实意义就是:如果大规模事件出现小概率事件的次数k$,可以参照二项式进行快速计算。

试着使用重心理论去理解,图像的增大和缩小会影响其重心,和XX与重心的距离,但是左移右移不影响两者距离,只影响重心位置。

依旧不是很重要的证明过程:直接使用定义法:

\begin{align*}\text{var}(X)&=\sum_x\left(x-{\rm E}[X]\right)^2p_X(x)\\&=\sum_x\left(x^2-2x{\rm E}[X]+({\rm E}[X])^2\right)p_X(x)\\&=\sum_xx^2p_X(x)-2{\rm E}[X]\sum_xxp_X(x)+({\rm E}[X])^2\sum_xp_X(x)\\&={\rm E}[X^2]-2({\rm E}[X])^2+({\rm E}[X])^2\\&={\rm E}[X^2]-({\rm E}[X])^2.\end{align*}

随机变量 X 和 Y 称为相互独立 的随机变量, 若它们满足pX,Y(x,y)=pX(x)pY(y)p_{X,Y}(x,y)=p_X(x)p_Y(y)对一切 x 和 y 成立.这等价于对于任意 x 和 y , 随机事件 X=xX=xY=yY=y相互独立. 最后,由公式 pX,Y(x,y)=pXY(xy)pY(y)p_{X,Y}(x,y)=p_{X|Y}(x|y)p_Y(y)可知随机变量 XXYY 的相互独立性的条件等价于:pXY(xy)=pX(x)p_{X|Y}(x|y)=p_X(x) 对一切 x 和一切满足pY(y)>0p_Y(y)>0 的 y 成立.直观上, Y 和 X 的独立性意味着 Y 的取值不会提供 X 取值的信息.在给定事件 A 的条件下(P(A)必须大于0)({\rm P}(A) 必须大于0!)也可以定义两个随机变量的条件独立性.在给定事件 A 的条件下,所有的事件的概率都换成关于条件 A 的条件概率. 例如, 我们称随机变量 X 和YY在给定正概率事件 AA的条件下是条件独立的

满足概率律

线性变换之下随机变量的正态性保持不变:设 X 是正态随机变量, 其均值为μ\mu, 方差为σ2\sigma^2 .若 a0a\not=0bb 为两个常数, 则随机变量Y=aX+bY=aX+b仍然是正态随机变量, 其均值和方差由下式给出:E[Y]=aμ+b,var(Y)=a2σ2.{\rm E}[Y]=a\mu+b,\quad\text{var}(Y)=a^2\sigma^2.

数据概率导论

基础知识

  • 集合

    1. 集合运算:并,交,补

    2. 集合代数:德摩尔定律即补集的并集等于原集的交集反之亦然

  • 概率模型

    1. 样本空间:空间内结果相斥

    2. 概率率:1.非负性,2.可加性,3.归一化

      • 概率律性质

        • 若$A\subset B,则P(A) \leq P(B) $

        • P(AB)=P(A)+P(B)P(AB)P(A \cup B )=P(A)+P(B)-P(A\cap B)

        • P(AB)P(A)+P(B)P(A\cup B)\leq P(A)+P(B)

        • P(ABC)=P(A)+P(AcB)+P(AcBcC)P(A \cup B \cup C)=P(A)+P(A^c \cap B)+P(A^c\cap B^c \cap C)[1]

    3. 序贯模型:针对有序事件

    4. 离散模型:样本空间内由有限个可能的结果组成:P(s1,s2,,sn)=P(s1)+P(s2)++P(sn)P({s_1,s_2,\dotsb,s_n})=P(s_1)+P(s_2)+\dotsb+P(s_n)[2]

    5. 连续模型:试验的样本空间为连续集合

    6. 贝特斯悖论:对于同一事件不同的模型导致结论不确定。例:三门问题。

    7. 条件概率:P(AB)=事件AB的试验结果数事件B发生的试验结果数=P(AB)P(B)P(A|B)=\frac{事件A\cap B的试验结果数}{事件B发生的试验结果数}=\frac{P(A\cap B)}{P(B)}是一个概率律. [3]

      • 乘法规则:P(i=1nAi)=P(A1)P(A2A1)P(A3A1A2)P(Ani=1n1Ai)P( \cap _{i=1}^nA_i)=P(A_1)P(A_2|A_1)P(A_3|A_1\cap A_2)\dotsb P(A_n|\cap_{i=1}^{n-1}A_i)
    8. 全概率定理:P(B)=i=1nP(AnB)P(B)= \sum_{i=1}^n P(A_n \cap B)20220606101748

      • 与条件概率的差异

        • 全概率是通过样本空间事件AiA_i和目标事件B相交概率反算出B事件的概率

        • 条件概率为事件A在事件A和B共同发生的前提下的概率

      • 贝叶斯准则:A1,A2,,AnA_1,A_2,\dotsb,A_n为互补相容的事件,且形成样本空间的所有分割

        • 不是很重要的推导过程P(AiB)=P(AiB)P(B)=P(Ai)P(BAi)P(A1)P(BA1)++P(An)P(BAn)P(A_i|B)=\frac{P(A_i\cap B)}{P(B)}=\frac{P(A_i){P(B|A_i)} }{P(A_1)P(B|A_1)+\dotsb +P(A_n)P(B|A_n) }

        • P(AB)P(A|B)P(BA)P(B|A)联系到一起,且可以进行因果推理。[4]

    9. 独立性:P(AB)=P(A)    P(AB)=P(A)P(B)P(A|B)=P(A)\iff P(A\cap B)=P(A)P(B)其中P(B)>0P(B)>0

      • 条件独立:P(ABC)=P(AC)P(BC)    P(ABC)=P(AC)P(A\cap B|C)=P(A|C)P(B|C)\iff P(A|B\cap C)=P(A|C) [5]
    10. 一组事件独立:任意两两事件且所有事件相互独立

      • 独立试验序列:重复的相互独立的试验

      • 如果结果只有两种可能称为:伯努利试验序列:p(k)=(nk)pk(1p)nkp(k)={n\choose{k} }p^k(1-p)^{n-k}

        • 其中(nk){n\choose{k} }为二项式系数n!k!(nk)!\frac{n!}{k!(n-k)!},为nnkk组合数[6]
      • 计数法

        • r阶段的结果:n1n2nrn_1n_2\dotsb n_r

        • n选k排列:n!(nk)!\frac{n!}{(n-k)!}

        • n选k组合:二项式系数(nk)=n!k!(nk)!{n\choose{k} }=\frac{n!}{k!(n-k)!}

        • 分割:(nn1)(nn1n2)(nn1nr1nr){n \choose{n_1} }{n-n_1 \choose{n_2} }\dotsb { {n-n_1-\dotsb -n_{r-1} } \choose{n_r} }


离散模型:值域为有限个集合

  • 分布列:用pXp_X表示随机变量XX的分布:pX(x)=P({X=x})p_X(x)=P(\{X=x\})

    • 伯努利随机变量:pX(k)={p,k=11p,k=0.p_X(k)=\begin{cases} p,若k=1, \\ 1-p,若k=0. \end{cases}

    • 二项随机变量:

      pX(k)=P(X=k)=(nk)pk(1p)nk,k=0,1,,np_X(k)=P(X=k)={n \choose{k} }p^k(1-p)^{n-k}, k=0,1,\dotsb,n

    • 几何随机变量:pX(k)=(1p)k1p,k=1,2,3,p_X(k)=(1-p)^{k-1}p,k=1,2,3,\dotsb

    • 泊松随机变量:

      pX(k)=eλλkk!,k=0,1,2,3,p_X(k)=e^{-\lambda}\frac{\lambda^k}{k!},k=0,1,2,3\dotsb,

    • 随机变量的函数:

      pY(y)={xg(x)=y}pX(x)p_Y(y)=\sum_{ \{x|g(x)=y\} }p_X(x)

  • 离散分布列之间关系

    • 伯努利随机是n=1n=1二项随机变量,二项随机变量是为在nn次的kk次成功,而几何随机这是一种累计直至第kk次成功,泊松随机变量更具有现实意义,在n很大,p很小即大规模发生事件下的小概率发生事件应用[7]
  • 多个随机变量的联合分布列:

    • 联合分布并没有严格区分离散模型和连续模型,只是因为模型不一样导致计算过程不一样。

    • pX,Y=P(X=x,Y=y)p_{X,Y}=P(X=x,Y=y),其中pX,Yp_{X,Y}称之为联合分布,将pX(x)=ypX,Y(x,y),  pY(y)=xpX,Y(x,y).p_X(x)=\sum_y{p}_{X,Y}(x,y),\quad\;p_Y(y)=\sum_x{p}_{X,Y}(x,y).为边缘分布。

  • 条件:正如第一章,所有概率都会有条件和独立的问题存在。这是全概率准则的基础。

    • 单一事件的随机变量:pXA(x)=P(X=xA)=P({X=x}A)P(A)p_{X|A}(x)={\rm P}(X=x|A)=\frac{ {\rm P}(\{X=x\}\cap{A})}{ {\rm P}(A)}

    • 给定另一个随机变量值的条件下的随机变量:$$

    • 给定另一个随机变量值的条件下的随机变量:pXY(xy)=P(X=xY=y)p_{X|Y}(x|y)={\rm P}(X=x|Y=y)公式pX,Y(x,y)=pY(y)pXY(xy)p_{X,Y}(x,y)=p_Y(y)p_{X|Y}(x|y),或利用pX,Y(x,y)=pX(x)pYX(yx)p_{X,Y}(x,y)=p_X(x)p_{Y|X}(y|x)

  • 独立性

    • 定义:P(X=xA)=P(X=x)P(A)=pX(x)P(A)对一切x成立{\rm P}(X=x 且 A)={\rm P}(X=x){\rm P}(A)=p_X(x){\rm P}(A) 对一切 x 成立,如果P(A)>0P(A)>0,则P(X=xA)=pXA(x)=pX(x)对一切x成立.{\rm P}(X=x 且 A)=p_{X|A}(x)=p_X(x) 对一切 x 成立.
  • 条件独立:

    • 随机变量之间的相互独立性与随机变量和随机事件的相互独立性的概念是完全相同的.[8]

一般随机变量:连续随机变量

  • 连续随机变量和概率密度函数(PDF):

P(XB)=bf(x)dxP(X\in B)=\displaystyle\int_b{f(x)}{dx}我们称f(x)f(x)为X的概率密度函数,

  • 端点无用:P(X=a)=aaf(x)dx=0P(X=a)=\displaystyle\int_a^a{f(x)}{dx}=0,所以区间端点的概率计算无用:P(aXb)=P(a<Xb)=P(aX<b)=P(a<X<b)P(a\leq X\leq b)=P(a < X\leq b)=P(a\leq X < b)=P(a < X < b)

  • 关于PDF性质的小结:[9]

    1. XX 的PDF(概率密度函数)为 fX(x)f_X(x) .fX(x)0f_X(x)\geq 0对一切 x 成立.且可以大于1

    2. fX(x)dx=1\int^\infty_{-\infty}f_X(x)\text{d}x=1

    3. 设 δ 是一个充分小的正数, 则 P([x,x+δ])fX(x)δ\text{P}([x,x+\delta])\approx f_X(x)\cdot\delta.其中P([x,x+δ])\text{P}([x,x+\delta])满足概率律,所以fX(x)f_X(x)是可以大于1的

    4. 对任何实数轴上的子集BBP(XB)=BfX(x)dx{\rm P}(X\in{B})=\displaystyle\int_{B}{f}_X(x)dx.

  • 常见分布列

    1. 均匀随机变量:即f(X)f(X)[a,b][a,b]上均匀分布

    2. 指数随机变量:$f_X(x)=\begin{cases}

    \lambda e^{-\lambda x},若x\geq 0 \

    0 ,其他\end{cases}$

    1. 正态随机变量:fX(x)=12πσe(xμ)2/(2σ2),f_X(x)=\frac1{\sqrt{2\pi}\sigma}{\rm e}^{-(x-\mu)^2/(2\sigma^2)},

      • 线性变换之下,随机变量的正态性保持不变,体现在方差和期望[^12]

      • 正态随机变量 Y 的期望μ\mu为0, 方差σ2\sigma^2为1,则 Y 称为标准正态随机变量

      • 结合上述性质,可以将非标准快速转换为标准,再利用标准正态速查表进行快速计算正态分布的结果


期望,均值,方差

  1. 期望:

    • 期望:我们把px×xpx\times x称之为期望值M=E[X]M=E[X]

    • 离散期望值为M=m1k1+m2k2++mnknkM=\frac {m_1k_1+m_2k_2+\dots+m_nk_n}{k},这是期望值得原本定义,在这边假定了kk值很大,将kikpi\frac {k_i}{k} \approx p_i,最后得出E[X]=xxpX(x)E[X]=\sum_x xp_X(x)

    • 连续随机期望依据定义:E[X]=xfX(x)dx.{\rm E}[X]=\int_{-\infty}^{\infty}xf_X(x){d}x.

    • 通常我们会将其看作分布列的重心

    • 期望规则

      • 随机变量Y=aX+bY=aX+b,则E[Y]=aE[X]+b,var[Y]=a2var(X)E[Y]=aE[X]+b,var[Y]=a^2var(X)[10]

      • var(X)=E[X2](E[X])2var(X)=E[X^2]-(E[X])^2 [11]

    • 条件期望:根据定义E[XA]=xxpXA(x){\rm E}[X|A]=\sum_xxp_{X|A}(x)

  2. 方差

    • 方差:记作var[X]var[X],var[X]=E[(XE[X])2]var[X]=E[(X-E[X])^2]

    • 标准差:σX=var(X).\sigma_X=\sqrt{\text{var}(X)}.

    • 连续随机方差:var(X)=E[(XE[X])2]=+(xE[X])2fX(x)dx\text{var}(X)=E[(X-E[X])^2]=\int_{-\infty}^{+\infty}(x-E[X])^2f_X(x)dx

    • 两者都是衡量XX在期望周围的分散程度,方差衡量标准为平方米,而标准差为米。

  3. 常用的随机变量的均值和方差

    • 伯努利随机变量:E[X]=1p+0(1p)=p\\E[X]=1\cdot{p}+0\cdot(1-p)=p\\,E[X2]=12p+02(1p)=p{\rm E}[X^2]=1^2\cdot{p}+0^2\cdot(1-p)=p\\,var(X)=E[X2](E[X])2=pp2=p(1p)\text{var}(X)={\rm E}[X^2]-({\rm E}[X])^2=p-p^2=p(1-p)

    • 离散均匀随机变量E[X]=a+b2,var[X]=(ba)(ba+2)12\\E[X]=\frac{a+b}{2},\\var[X]=\frac{(b-a)(b-a+2)}{12}

    • 二项分布式:E[X]=np\\E[X]=np,var(X)=i=1nvar(Xi)=np(1p)\\\text{var}(X)=\sum_{i=1}^n\text{var}(X_i)=np(1-p)

    • 泊松随机变量:E[X]=λE[X]=\lambda,var(X)=E[Y2](E[Y])2=λ(λ+1)λ2=λvar(X)=E[Y^2]-(E[Y])^2=\lambda(\lambda+1)-\lambda^2=\lambda

    • 几何变量:E[X]=1p{\rm E}[X]=\frac 1 p

    var(X)=E[X2](E[X])2=2p21p1p2=1pp2.\\\text{var}(X)={\rm E}[X^2]-({\rm E}[X])^2=\frac2{p^2}-\frac1p-\frac1{p^2}=\frac{1-p}{p^2}.


    • 均匀随机变量:

      E[X]=a+b2E[X]=\frac{a+b}{2}\\,var(X)=E[X2](E[X])2=a2+ab+b23(a+b)24=(ba)212.\text{var}(X)={\rm E}[X^2]-({\rm E}[X])^2=\frac{a^2+ab+b^2}3-\frac{(a+b)^2}4=\frac{(b-a)^2}{12}.

    • 指数随机变量:E[X]=1λvar(X)=1λ2{\rm E}[X]=\frac1\lambda\quad\text{var}(X)=\frac1{\lambda^2}

    • 正态分布:E[X]=μ,var(X)=σ2.{\rm E}[X]=\mu,\quad\text{var}(X)=\sigma^2.

极限理论

  1. 大数定律:所以当 nn\to\infty时,MnM_n 的方差趋于0.也就是说,MnM_n 的分布大部分就必然与均值 μ\mu特别接近.这种现象就是大数定律的内容,即随机变量序列 MnM_n,从大样本意义上看,收敛于 $X_i $的均值 μ\mu .按通常的解释,当样本量很大的时候,从 X 抽取的样本平均值就是 E[X] ,大数定律就为此提供了一个数学理论基础.

  2. 中心极限定理:用 SnS_n 减去 nμn\mu ,可以得到零均值随机变量序列 S_n-n\mu ,然后再除以σn\sigma\sqrt{n},就得到随机变量序列Zn=Snnμσn.Z_n=\frac{S_n-n\mu}{\sigma\sqrt{n} }.易证明E[Zn]=0,   var(Zn)=1.{\rm E}[Z_n]=0, \ \ \ \text{var}(Z_n)=1.因为ZnZ_n的均值和方差不依赖于样本容量 n ,所以它的分布既不发散,也不收敛于一点.中心极限定理 就研究ZnZ_n的分布的渐近性质,并且得出结论:当nn充分大的时候,ZnZ_n的分布就接近标准正态分布.

  3. 马尔可夫不等式:P(Xa)E[X]a{\rm P}(X\geq a)\leq \frac{ {\rm E}[X]}{a}

  4. 切比雪夫不等式:随机变量 X 的均值为 μ\mu,方差为σ2\sigma^2,则对任意 cc%3e0 ,P(Xμc)σ2c2{\rm P}(|X-\mu|\geq c)\leq \frac{\sigma^2}{c^2}

  5. 通过上述四个理论,大数定理和中心极限提供了数学理论基础,而马尔可夫不等式和切比雪夫不等式则计算出来一定的概率上限。


\begin{align*}\text{var}(X)&=\sum_x\left(x-{\rm E}[X]\right)^2p_X(x)\\&=\sum_x\left(x^2-2x{\rm E}[X]+({\rm E}[X])^2\right)p_X(x)\\&=\sum_xx^2p_X(x)-2{\rm E}[X]\sum_xxp_X(x)+({\rm E}[X])^2\sum_xp_X(x)\\&={\rm E}[X^2]-2({\rm E}[X])^2+({\rm E}[X])^2\\&={\rm E}[X^2]-({\rm E}[X])^2.\end{align*}

[^12]线性变换之下随机变量的正态性保持不变:设 X 是正态随机变量, 其均值为μ\mu, 方差为σ2\sigma^2 .若 a0a\not=0bb 为两个常数, 则随机变量Y=aX+bY=aX+b仍然是正态随机变量, 其均值和方差由下式给出:E[Y]=aμ+b,var(Y)=a2σ2.{\rm E}[Y]=a\mu+b,\quad\text{var}(Y)=a^2\sigma^2.


  1. 概率律的所有性质都在后续有应用,基于不同的模型。 ↩︎

  2. 古典模型:P(A)=含事件A的结果数nP(A)=\frac{含事件A的结果数}{n} ↩︎

  3. 条件概率也满足概率律的所有性质:P(ACBC)P(AC)+P(BC)P(A|C\cup B|C)\leq P(A|C)+P(B|C) ↩︎

  4. 试着使用现实意义进行描述贝叶斯准则:通过事目标件B在特定条件下的发生概率,来反推出事件B在无条件或者特定样本空间下的概率。即在通过结果来反推出发生原因的概率。 ↩︎

  5. 继续不是很重要的推导过程,中间用到条件概率的乘法法则:P(ABC)=P(ABC)P(C)=P(C)P(BC)P(ABC)P(C)=P(BC)P(ABC)    P(BC)P(ABC)=P(AC)P(BC)    P(ABC)=P(AC)P(A\cap B|C)=\frac{P(A\cap B \cap C)}{P(C)}=\frac{P(C)P(B|C)P(A|B\cap C)}{P(C)}=P(B|C)P(A|B \cap C) \iff P(B|C)P(A|B \cap C)=P(A|C)P(B|C) \iff P(A|B\cap C)=P(A|C) ↩︎

  6. 组合数即意味着含有次序 ↩︎

  7. 试图证明泊松变量和二项随机变量的逼近:设n,p0n\to \infty,p\to 0, 且np=λnp= \lambda将二项随机变量:$$\begin{align*}\frac{n!}{k!(n-k)!}pk(1-p){n-k}\end{align*}n=\frac{\lambda}{p}得到只剩下得到只剩下\lambda的式子,求极限。总结下对应意义就是在试验次数的式子,求极限。总结下对应意义就是在试验次数n很大的情况下,很大的情况下,p很小,则无限接近二项随机变量。现实意义就是:如果大规模事件出现小概率事件的次数很小,则无限接近二项随机变量。现实意义就是:如果大规模事件出现小概率事件的次数k$,可以参照二项式进行快速计算。 ↩︎

  8. 随机变量 X 和 Y 称为相互独立 的随机变量, 若它们满足pX,Y(x,y)=pX(x)pY(y)p_{X,Y}(x,y)=p_X(x)p_Y(y)对一切 x 和 y 成立.这等价于对于任意 x 和 y , 随机事件 X=xX=xY=yY=y相互独立. 最后,由公式 pX,Y(x,y)=pXY(xy)pY(y)p_{X,Y}(x,y)=p_{X|Y}(x|y)p_Y(y)可知随机变量 XXYY 的相互独立性的条件等价于:pXY(xy)=pX(x)p_{X|Y}(x|y)=p_X(x) 对一切 x 和一切满足pY(y)>0p_Y(y)>0 的 y 成立.直观上, Y 和 X 的独立性意味着 Y 的取值不会提供 X 取值的信息.在给定事件 A 的条件下(P(A)必须大于0)({\rm P}(A) 必须大于0!)也可以定义两个随机变量的条件独立性.在给定事件 A 的条件下,所有的事件的概率都换成关于条件 A 的条件概率. 例如, 我们称随机变量 X 和YY在给定正概率事件 AA的条件下是条件独立的 ↩︎

  9. 满足概率律 ↩︎

  10. 试着使用重心理论去理解,图像的增大和缩小会影响其重心,和XX与重心的距离,但是左移右移不影响两者距离,只影响重心位置。 ↩︎

  11. 依旧不是很重要的证明过程:直接使用定义法: ↩︎

《Python的数据科学手册》

这本书和我之前看的《数据科学入门》,《数据科学导论》其实都大差不离,数据科学的基础不在于python的操作,而是算法的不同,这本书的最后一章也是在重复的讲述那些算法。但是还是一样的问题,他的算法解释都是基于自己创造的数据来着,和实际场景有着千山万水的差别,总归来说,你没办法拿来主义的应用了。

看了这么多,现在也差不多可以来谈谈自己对机器学习学习过程的一些经验推荐了。

首先是python操作,这里我建议直接看《廖雪峰的python教程》网页上就有,跟着学习,打打代码,知道python的一些操作逻辑即可。无论是这本书还是接下来的书,更多的是入门,就是告诉你python有那些用处,但是它不会全面,仔细的告诉你,因为实际情况下每个业务环境都不同,就像我们以前学习SQL语句一样,看着学的是selcet,from这些简单的,但是它给了你一些衍生,允许你在需要更高级的操作时候去再次学习,然后不断加深自己的技巧,而机器学习和python操作一样,都是一个简单入门,然后你实际业务操作时候还需要大量的去查找资料,所以每次学习完成之后你都会觉得看起来没学一样,你需要大量的习题和现实业务来不断的磨练你的技巧。

好的,基于以上原因《数据科学入门》,《数据科学导论》和《Python的数据科学手册》这三本书,你完全可以选择一本看就可以,推荐的是后面两本:《数据科学导论》和《Python的数据科学手册》都是O’Reilly精品图书系列,它出版的书确实都是具有一定科技前沿技术的。所有书的结构其实大同小异,前面都是讲述Python的安装,然后是nump包,pandas包,最后就是sklearn包,然后就是各个算法的实现,它没有体现各个算法实际过程,你就如同盲人摸象一样,慢慢的摸索,按照它的代码看着一张张美丽的图片出现,你甚至有点削足适履,将你的数据转换成它想要的格式,然后再进行学习计算。但这一过程是必备的,我们需要了解这些程序能够接受什么样的数据,然后再进行自己的推断和思考。

但是这些书也是有不足之处的:他们很多时候都是只谈及他们经常用到的一些用法,而且数据结构简单,所以到了你实际操作的时候你还是需要一个速查表,或者别人的代码操作来实现自己的想法,正如上面所说的,这就是一个入门。它告诉你工具如何使用,但是不告诉你工具原理,但这一切又是必要的,知其然然后知其所以然。

对此我的学习建议是跟着写代码,然后理解他的意思,最后再应用在自己的数据去。期间可以简单的应用在自己的工作中,比如我就拿了Pandas处理了日常excel的数据。方便自己导入到出纳系统。

机器学习之路3

接下来我考虑学习具体的解析过程:算法的数学过程。很多时候面对的是不断累积的数据,我却没有一个比较好的思路对其进行处理,很多算法我只是知道其如何使用或者是分类算法,还是近似算法。这边推荐《白板推导》视频B站里面有,讲的不算深,他侧重不在于计算过程,而是整个概念得理解过程:比如不同角度理解线性回归等,所以不需要你会实际的操作或者计算,很多时候只需要理解概念即可。比如我虽然不会矩阵求导得方法,但是我知道他求导是为了求出极值,那么这就够了,足够我们继续学习下去了。

然后根据白板得推荐,有几本很好得入门书籍可以值得阅读:

《统计学习方法》

PRML《模式识别与机器学习》

MLAPP《》

《统计学习基础(ESL)》

《deep learning》

视频:

台大-林轩田

《基石》VC,正则化,线性模型

《技法》SVM,决策树,随机森林

张志华:纯数学推导

《机器学习导论》频率派

《统计机器学习》贝叶斯

台大:李宏毅-机器学习

这些书和视频后续会找时间了解下。

同时我也会练手几个项目,防止自己编码生疏。


20220720140826

书不长,很容易读完。讲的是我们以前看过没看过的小说分析。作为一个作家也是一个中文系的教授,毕飞宇看待小说的角度和方式与我们有差距。所以这本书是用如果你是一个中文系学生或者一个教授来看小说:你会怎么看。

虽然说是解读小说,但是其实涉及面很广。从最基本的人生哲学,到日常的生活道理。小说,文学之间的差距,然后就是解答了一个很多人关注的问题:你解读一个小说是不是过度解读。作者回答的很到位:不是,作者写作的时候要考虑的很多,好的作家的书是有自己的内在逻辑的,这套逻辑也许连作家自己都没发现,所以需要我们这种外人去给他挖掘和解读。这让我想起了当初高考那只泛着绿光的鱼。甚至乎有人问韩寒他写作的时候是不是真的有这么想。我接受这个答案,很多时候小说或者说文章的脉络是一气呵成的,你若让我回想当初的逻辑,我也是一时堵塞,甚至如今翻看我之前的文章,有些我甚至觉得这是何德何能出自我手的文章啊。就是这样的一种感觉。虽然写有这本书,但不代表你对这书,这文章有唯一的解释权,它是你的,但又不全是你的,人们可以从中获取到自己想要的内容,而不必和你一样又相同的感悟。文学从来都不是分享自己的情感,它可以干很多事。鲁迅拿他来鞭策我们的国民,汪曾祺拿它来表现出文人的雅。不同的人写的文章是不同的,这还没算上那些上不得台面的,见不上报的小博客。

看完这本书的第二个所得就是得到了一大堆书单,虽说这书里解读的小说都是古今中外的文学名著,但是奈何当初年轻不懂事,要么没读过,要么没读懂。所以就像书里说的一样:有些书四十岁之前读和四十岁之后读是两种不一样的感觉。如今我三十了,就当作四十吧。我准备重新读读那些读过和没读过的书。这次试着认真的读懂这些书。可笑的是前段时间才刚刚读完余华的几部小说,现在想来,也算是没读一样,也写下来洒洒长文,但是总没有像书中的那样,让人回味,让人咂舌。是读的太快没读懂,还是余华写的白。

人到了三十,就想着出人头地,就想着赚钱。人人都在说三十五岁就定型了,三十五就没法跳槽了,三十五身体就慢慢的不行了。现在的我按人人说的正站在那鬼门关前。在门口本来没有什么,但是看着这门,内心总是耐不住的焦急。看不下这些闲书,想得是今日读到一本好书,明天就根据书上得内容,大发横财。你说让我慢慢得欣赏这小说,看不进去。还不如去看《概率论》好歹以后万一可能用得到呢?年纪越大倒是越耐不住啊。

静下心想想:也不是没有一技之长,只不过这社会大家都是多才多艺,你这一技之长总是稍显弱势,半路出家学点啥呢,又觉得不如人家正规军学的透彻,规范。所以不免就陷入了焦躁。想着转行,但是学不进去,总归一句话:是对现在得生活烦了。就这一亩三分地,就这半吊子得学问,再学也就那样,没法实现阶级的跨越,更多的是给本可以安分下来的生活多来点水花。看着那些荡漾,心里就舒服,生活在于运动。研究生,博士生的精髓就在于钻研,钻研某个学问,但是我钻不进去,我看了快2个月的《概率论》看的我是云里雾里,虽然看得懂,但是一到做题就显得头大,它教的和它考的是两回事。后来慢慢的也就放弃了,看看书,能理解应用就可以,至于刷题,还是算了。我注定是钻不进去那个门道。好赖多学一点知识,当个业余爱好也是不错。别人业余爱好都是养鱼赏花,我就喜欢写点文章,写点代码。看着那一串串的数据,我舒服。然后数据再删减规范,我就更加的痛快了,等图表整齐规划之后我也就射了。然后剩下的就是贤者模式的思考:我花了这么多时间做了些什么劳什子。

工作和兴趣的不统一算是目前现状,我的工作不需要这些代码,或者说这些代码没法让我发财,如果让我变成一个专门写代码的,我估计也开心不了,因为我的代码还是没法让我发财。总归就是要发财。其实心放宽,发财的机会不能说是没有,我不能自己把希望湮灭,姑且安于当下,看看书,饮饮茶,一本书看完,有所得,那就是好的。这本书看完,所得颇丰。

20220712145919

写在前面:

  1. 翻译很重要,这本作者是德国,然后被人翻译成英文,再翻译成中文,所以翻译很重要,不仅如此,以后所有的外文书籍都要关注下翻译质量,不行多下几本电子书对比。我一开始看的完全是狗屁不通的机器直翻。

  2. 这本书的脚注完全不建议去看。尤其如果你只是像我一样想要了解内容的读者,完全没有必要去看。作为一篇论文,本文的脚注大部分是文献的引用,其余的也是作者和别人的争辩。如果你不是专业人士或者资深爱好者,你会对他们的争辩内容感到迷惑,所以建议看原文就可以,脚注完全忽略,而且不会影响你理解的。

  3. 也许是我下的电子书版本问题,或许这种论文内容太少的缘故吧。我这本书一开始导言,然后是导读,导论,绪论,序言。最后才是正文。当到正文的时候书本内容已经接近一半了。这里并不是吐槽书本注水,相反,前面的导言导论对我们理解书本内容有很大的帮助,甚至可以说,如果你只是前来观瞻一下这部伟大的著作的话。那么只要读完前面的这些即可。由于时代背景和专业背景缘故。你观看正文的理解也许还没有前面的导论清楚,而且这是部宗教论文,所以很多时候提及的很多重大事项变革并不是为我们所熟悉。所以导论,导读可以帮助我们理解。

20220702100534

哲学?不,是宗教

很多人会把这本书奉为一本哲学著作,然我并不是什么哲学家,更多的是对人性有着自己的思考。人性和现实之间存在着一层隔阂,人有时候会无法在社会生存。人类对自己的欲望或者需求的了解知之甚少,虽然从很久以前就已经有了内省,更多的人却无法了解自己,很多时候自己的直观需求和大众认知存在着明显的差距。那这种情况下是以什么为准,是极端的自我主义还是为了大我放弃小我的伟大奉献抑或是更加现代化的责任义务划分呢。我对当代社会的矛盾很多时候觉得不是主义之间的矛盾,而是个人和群体的矛盾,西方自我思想的侵入或许是人民心智的成熟,越来越多的人感到对社会的不适,我们996,我们007,我们丁克,我们不婚。我们内心需求的是一亩三分地,老婆孩子热炕头,但是生活却是地下室,接盘侠,6个钱包。我相信政府或者说那些先驱的梦想中的光景并不是如此,但又是什么让我们陷入如此田地呢。我不否认个人的作用,但我想在大势之内个人的作用微乎其微。很多时候祖国,民族,甚至家庭所裹挟,在大众道德的观念影响下,我们做出了一些违背甚至损害自我利益的行为。这就是伦理的力量。而如今社会发生的这一切难道不是和书里所描写的如此相像:我们也正在经历一场清教徒式的伦理改革:对名利和金钱的追求变得前所未有的赤裸,如果追求不到,那么再极端的调转船头,成为一个抛名弃利的清高之人,然后再通过这遗世独立的人设,换着法的追名逐利。任何以抛弃名利的行为最后都会称为名利。我们在始终在这看不见的名利场内。

宗教?不,是人生

我们逃不出,摆不脱,追不上名利,却只能在这白皑皑的世间,给人当着垫脚的石子。人活一世,究竟室为了什么:为了功名,为了声望那个,还是为了钱财。生而为人,却不知前路在哪,说的是行行出状元,条条通罗马,但是哪个不是人中龙凤,哪个不是名师辅佐。十四万万之人又有几人能飞升得道,又有几人能静心苦读。人的痛苦一目了然。人类苦于自己的欲望和通途之间的矛盾,需要寻求另外一种更加容易达到的解脱,于是这种廉价且易得的道路出现了:宗教。或许有些人说,随着科学技术的发展慢慢的这些迷信会渐渐式微。如果说早期的萨满教等古典宗教解答的是人类对自然的无知,如今的宗教解决的是人类自身的需求:需要追寻自己来这一趟的目标是什么?诚然,自我强大之人能在自己人生的道路上慢慢找到目标,但是更多碌碌无为之人,却是终其一生不得其宗。宗教的存在有其意义,如今的宗教依旧存在,他给与人目标,让他们更加潜心学习,实现自己美好的生活,而跳过了那追寻的过程。但是宗教并不是这个问题的唯一答案,只是众多答案之一:父母的耐心教导不失为另一种答案。

人生?不,是上帝

书里面拿了基督教作为案例。基督教其实是有很多分支的,分支的原因在于两点:1. 哪个版本的《圣经》,2. 怎么解读《圣经》。语言的歧义和不断进化这些特性,导致我们对古代文献的解读在各个时期是不一样的,姑且不论各种宗教的差异,在书里主要是通过对新教这一基督教分支进行分析,这也是这本书的书名由来。根据新教的教义:大多数的人类都是不值得救赎的,只有一小部分人类是可以救赎的,而这一小部分是由上帝确定的。在这种教义之下,教众很容易就会陷入一种宿命论的牢笼,既然我注定要下地狱,那我又为何要好好的过呢。

对于加尔文来说,上帝的decretum horribile(可怕裁定)并不是像路德认为的那样来自宗教经验,而是出于他自己思想的逻辑需要。因此,随着他的宗教思想越来越具有逻辑一致性,decretum horribile也越来越具有重要意义。它唯一关注的是上帝,而不是人;上帝不是为了人类而存在的,相反,人类的存在完全是为了上帝。一切造物,当然包括加尔文深信不疑的事实,即只有一小部分人能被选中而得享永恒的恩宠,它们的全部意义就在于体现了上帝的荣耀和威严。以尘世的公正标准来衡量上帝的最高旨意不仅毫无意义,而且是亵渎上帝,因为上帝是自由的,而且只有上帝才是自由的,就是说,上帝不受制于任何律对于被罚入地狱的人来说,抱怨自己的命运不济,差不多等于动物抱怨它们不曾生而为人,因为肉体的一切都与上帝隔着一条无法逾越的鸿沟,只要上帝还没有为了自己的荣耀而做出其他判决,人就该当永灭。我们所知道的只是:人类只有一部分能够得救,其余都被罚入地狱。如果认为人的功或罪在决定这种命运时会起到一定作用,则无异于认为上帝绝对自由的旨意会因为人的影响而改变,而上帝的旨意又是永恒确定了的,这是于理不通的自相矛盾。

在极致的悲观下,就慢慢引申出了另一种教义理解。都是一样的被抛弃者,我们也是要有当抛弃者的作用的:我们如火柴一样,燃烧自己仅仅是为了上帝在人间美景的繁荣。按照如今的观念来看,也许这完全是一个妥妥的邪教主义,但是宗教的本质就是宣言恐惧,然后利用救赎扩张,利用人性的弱点和贪欲。如果好好引导的话也确实能够控制住一大群人:在这个教义的影响下:人们压抑自己的欲望,开始进入了一种打工人的模式,甚至连邻居都不交往:简单的人际关系,按部就班的工作模式,让人类摆脱大多数的烦恼,于是就有人认为这是救赎的象征——即使教义写明救赎没有任何象征,但这并不影响他们的想法,于是就更加虔诚的投入。这一过程产生的财富得以保留。和以前的商人最大的不同就在于此,他们没有将财富花出去,成为一个循环,而是留在手里,慢慢的积累。而这正是资本主义的精神:利润。

这一过程改变了很多:1,人们对工作的态度,人们不再厌恶工作,反而更加喜欢工作,认为这是救赎的方法。 2,产生的巨大财富使得形成垄断组织或者资本寄生虫得到可能,以前是赚的多,花的多,现在是赚得多花点少。3,人们对薪酬的态度,苦修式的人们生活对救赎有所裨益,所以不需要太多工资,资本家可以截取大量的利润。

这一精神下,让资本主义慢慢的走到了如今的地位,在这一内核下,资本主义需要实现的就是:更高的利润。而至于这些年产生的技术进步,则更多是为了产生更高利润产品的夫家活动罢了,工人不会因为生产高利润的产品而获得更多薪酬,产品和他的制造者以及生产资料三者完美的划分开了,每一块都只需要支付最合适的价格,从而实现资本主义最高利润的目标。更恐怖的是这就意味着,资本主义的未来不是人类的大一统宇宙,不是星辰大海,而是一个个虔诚的教众,技术进步只是其实现目标路上的工具而已。事实上,没有一个哲学思想将全人类的未来当作方向,更多的都是实现其心目中乌托邦的工具罢了。如果有一个东西能让我们成为一个个虔诚的教众,那么到那个时候,既不需要星辰大海,科学技术这些华而不实的东西了。而那个东西他已经来了

上帝?不,是消费主义

资本主义初期,人们发现我们可以通过增加产品的技术或者功能来获取更高的利润,于是就产生了专利,技术研发等等,但是技术研发投入太高而且还有失败的风险,技术推广也需要很长时间,所以,慢慢的这一套已经日渐失落了。现如今,资本主义已经进化成了消费主义:不再创造一个统一宗教的虔诚教众,而是创造千千万万个宗教的虔诚教众:奢侈品教众,轻奢教众,联名教众。只要宗教够多,那么就会将所有的人都划分进来,无论是是男女,LGBT,甚至猫狗都可以。这一套成本投入少,附加值高,起效快,已经成为了新一代的资本主义

消费主义从人和人的差异中创造价值,无论是性别,身高,取向,财富。他从一个虚无的空间里拿出了一把尺子,将人和人划分到一个个不同的圈子了,每个圈子都能源源不断的产生金钱,甚至圈子和圈子之间碰撞都能产生金钱。人类的思想就这么在现实中得到了体现,这算是人类踏入虚无主义的第一步吧。

我甚至无端猜想:如果有一天,圈子不再产生利润了,那么人类的社会会是怎么样?是大家都和谐统一,对任何事都有一样的看法了。还是圈子破裂,大家四散开来,再也聚不到一起。

有人说:人类的思想是无穷无尽的能源?那不过是诗人们的一厢情愿罢了,人都有价值,人的思想也是,不过也是金钱罢了。如果真到了耗尽思想的那一天时:人类在耗尽的物质,又耗尽了思想,那么还剩下什么呢?

0%