《鲁迅杂文选》读书心得
为了平复《一句顶一万句》和《挪威的森林》所带来的情绪波动,需要一些深刻的文字来中和一下。中间读了《长安的荔枝》,不过似乎力道不够,于是,想到了鲁迅,想到了鲁迅的杂文。
为了平复《一句顶一万句》和《挪威的森林》所带来的情绪波动,需要一些深刻的文字来中和一下。中间读了《长安的荔枝》,不过似乎力道不够,于是,想到了鲁迅,想到了鲁迅的杂文。
刚开始写读书心得时,还会很认真地写感想并把书中的精彩语句逐条摘录出来,整理成文字附在文章末尾。后来嫌麻烦,就改成直接拍照,以图片形式写读书心得和放在文末。这样做确实更省事,还能把书页边栏里随手写下的批注原汁原味地保留下来。
前段时间,电视剧《长安的荔枝》因演员事件闹得沸沸扬扬,故也借机抽空把原著小说看了一遍。这是一部中篇小说,两天也便读完了。
本书虽然披着古装的外壳,但本质上却是一部讲述职场厚黑学、传统官场斗争与权谋心术的故事。和同类题材相比,小说在情节推进中加入了许多现代项目管理的思维方式,例如看板管理、瓶颈意识、风险管理等,算是有些新意。
刚开始跑步、读书的时候,对参加所谓的跑团或读书会很感兴趣。但后来渐渐淡了,因为慢慢明白:跑步和读书本就是属于孤独的个人体验。跑步时的思绪涌动,是与自己的身体、与天地万物对话的过程;而读书则是与心灵、与灵魂交谈。俗话说,一千个读者就有一千个哈姆雷特,读书的过程,是将个人的生活体验与书本发生化学反应的过程;离开了自己的经历,别人所谓的“感同身受”往往是不存在的。所以,许多读书分享会反而更像是一种社交,而这与读书所强调的个体性的、心灵与书本交融的孤独本质,未免有些背离。跑步亦然。
读完《挪威的森林》,不由自主想起日本那部经典电影《情书》。相比前者那种近乎放纵的克制,我反而更喜欢《情书》里那份克制后的错失,也许这是价值观的不同吧。
第一次接触村上春树大概是在 2013 年。那时我开始夜跑,而村上又是业余马拉松爱好者的代言人,于是读了《当我谈跑步时我谈些什么》。时间久远,书中内容大多已模糊,而他挑战 100 公里超级马拉松的情节却历历在目。
《人间失格》是日本著名小说家太宰治最具影响力的中篇小说之一,发表于1948年。这是一部明显带有自传色彩的作品,而在同年,太宰治便选择了自杀,令人读来更添几分唏嘘。
这本小说其实在年初就读完了,篇幅不长,是在方所书店断断续续看完的。没有在读后立即写下心得,是因为书中那种极致的颓废与深沉的绝望感,与现实世界所强调的正能量相去甚远,读完后的心境一时难以整理。
刘震云2011年茅盾文学奖的长篇小说《一句顶一万句》,终于抽出时间拜读完毕。
小说分上下两部分,上半部“出延津记”,写的是杨百顺身上发生一连串变故,最终与养女巧玲离乡背井、踏上寻人之路;下半部“回延津记”,讲的是巧玲的儿子牛爱国,在经历人生种种的是是非非之后,因为母亲收到的一封信,走回延津......
上下两部分,就像个轮回,变的是人物,不变的是故事背后的柴米油盐,不变的是漂泊的人生和孤独的灵魂。虽然本书没有《百年孤独》的魔幻,但那种宿命感的底色并无二致,读罢心头始终萦绕着一股悲凉。 不过在终篇,牛爱国的那句话:“不,得找。”又仿佛留住了人生最后的一丝希望,不让人生显得太过苍白。
"你无法在摘要上进行模式匹配,阅读他人对知识的压缩会创造知识的幻觉;二手洞见不是洞见,模式识别需要高质量的数据。"
这句话说得极好,学习一门新知识,最终还是要回到系统的、成体系的经典书籍上。
关于AI学习,读过很多相关书籍,结合自己的体会,按照较为合适的阅读顺序推荐以下几本:
1.《Deep Learning with Python》(《Python 深度学习》)
——“知其然”的最佳入门书
这本书深入浅出地介绍了深度学习的核心思想,是非常优秀的宏观入门读物。行文清晰、结构紧凑,让初学者能够迅速建立对深度学习整体框架的理解。国内已有第二版的正式译本。 在线阅读的网址:https://deeplearningwithpython.io/
在许多情况下,我们希望机器学习算法能够预测若干(离散)结果中的一个。例如,电子邮件客户端会将邮件分为个人邮件和垃圾邮件,这就有两个结果。另一个例子是望远镜识别夜空中的天体是星系、恒星还是行星。通常结果的数量较少,更重要的是,这些结果之间往往没有额外的结构。 在本章中,我们考虑输出二元值的预测器,也就是说,只有两种可能的结果。这种机器学习任务称为二分类(binary classification)。这与第 9 章形成对比,当时我们讨论的是连续值输出的预测问题。对于二分类,标签/输出可以取的值是二元的,本章中我们用 {+1,−1} 表示。换句话说,我们考虑的预测器形式为 \[ f:\mathbb{R}^D \to \{+1,-1\}. \tag{12.1} \]
回忆第 8 章,我们用 \(D\) 个实数的特征向量表示每个样本(数据点)\(x_n\)。标签通常分别称为正类(positive class)和负类(negative class)。但应当注意,不要根据“正”或“负”字面意义推断+1类的直观属性。例如,在癌症检测任务中,有癌症的患者往往被标记为+1。原则上可以使用任何两个不同的值,例如{True,False}、{0,1}或{red,blue}。二分类问题研究得比较充分,其他方法的综述我们放到 12.6 节再介绍。我们将介绍一种称为支持向量机(Support Vector Machine, SVM)的方法,它用于解决二分类任务。与回归类似,这是一个监督学习任务:我们有一组样本 \(x_n \in \mathbb{R}^D\),以及对应的(二元)标签 \(y_n \in \{+1,-1\}\)。给定一个包含样本–标签对 \(\{(x_1,y_1),\dots,(x_N,y_N)\}\) 的训练数据集,我们希望估计模型参数,使分类错误率最小。类似第 9 章,我们考虑线性模型,并把非线性隐藏在对样本的一个变换 \(\phi\) 中(见式(9.13))。我们将在 12.4 节重新讨论 \(\phi\)。
支持向量机(SVM)在许多应用中都能提供最先进的结果,并且具有坚实的理论保证(Steinwart 和 Christmann, 2008)。我们之所以选择用 SVM 来说明二分类问题,主要有两个原因。
首先,SVM 提供了一种几何方式来思考监督学习问题。 在第 9 章中,我们是从概率模型的角度来看待机器学习问题,并用极大似然估计和贝叶斯推断来解决。而在这里,我们考虑一种替代的方法,即从几何角度来推理机器学习任务。这种方法高度依赖于我们在第 3 章讨论过的内积和投影等概念。
第二个原因是,与第 9 章不同,SVM 的优化问题没有解析解,因此需要借助第 7 章介绍的各种优化工具。 SVM 对机器学习的理解与第 9 章的极大似然方法存在细微的差异:极大似然方法是基于数据分布的概率观点提出一个模型,再由此推导出一个优化问题;而 SVM 的方法则是从几何直觉出发,先设计一个需要在训练过程中被优化的函数。我们已经在第 10 章看到过类似的情况,当时我们从几何原理出发推导了 PCA。在 SVM 的例子中,我们通过设计一个损失函数来度量训练数据上的误差,并遵循经验风险最小化原则(第 8.2 节),在训练中加以最小化。
Density Estimation with Gaussian Mixture Models
在前几章中,我们已经讨论了机器学习中的两个基本问题:回归(第 9 章)和降维(第 10 章)。在本章中,我们将探讨机器学习的第三个支柱:密度估计。在这一过程中,我们会引入一些重要的概念,例如期望最大化(EM)算法,以及通过混合模型来理解密度估计的潜在变量视角。

当我们将机器学习应用于数据时,往往希望以某种方式来表示数据。一个直接的方法就是将数据点本身作为数据的表示;例如见图 11.1。 然而,如果数据集非常庞大,或者我们更关心数据的整体特征,那么这种方式可能就不太有用了。在密度估计中,我们通过使用某个参数化分布族中的分布(例如高斯分布或 Beta 分布),来紧凑地表示数据。比如,我们可能希望通过数据集的均值和方差,用一个高斯分布来进行紧凑表示。均值和方差可以通过第 8.3 节讨论的工具(最大似然估计或最大后验估计)来求得。接着,我们就可以用这个高斯分布的均值和方差来表示数据背后的分布,即我们认为该数据集是从这个分布中采样得到的一次典型实现。
个人注:高斯混合模型的密度估计是一种表示数据的方法!其实也是一种建模,因为这个分布就是对应该类数据的模型表达。