读李飞飞《我看见的世界》后感
阅读李飞飞自传的读后感和一些思考。
为什么想起来看这本书
实际上之前已经在微博这样的地方已经看过这本书的一些片段,比如 OPENAI 的起源,使用 GPU 去运行神经网络等。阅读到的时间绝对是在这个 AI 时代,对于我们普通人来说新的 AI 时代绝对是 OPENAI 3.5 出现的 2022 下半年为开始的时代。实际上我认为这本书不完全是李飞飞是自传,而是新 AI 时代的发展历史——以李飞飞教授的时间线的发展历史,以她的视角去解释这个前 AI 时代她看到的东西。前面说到我觉得不太算自传还有一个原因是,李飞飞在书中书写自己的努力,自己的天赋,自己的困苦总是只有寥寥数笔而已,似乎她做出的一些关键成就只是一些无关紧要的事件,实际上对于一个人的人生节点来看,她对轻描淡写的事件的付出绝对不是书中写的那么容易,这点是我绝对钦佩的地方。
李飞飞的个人魅力
看书之前我完全不知道李飞飞本科是物理专业的,而且书中甚至没有提到过她本科学习专业的细致方向。实际上李飞飞最符合我心中的复合型人才的形象,无论是她轻描淡写写道自己如何接触生物视觉的研究和自己如何从不熟悉英文获取全奖大学的事情,无不展示她的谦逊和强大的能力。无论是物理学还是后来的生物视觉,还是人工智能图像识别,李飞飞在书中写道,好奇心是驱动她做研究的最重要动力。从哲学和科学的角度去思考动物视觉这个事情就是一个例子,书中提到:想象生物在没有视觉感受之前,生物对世界的感受是不是完全没有的,那么生物自己的感受是不是就是完全和这个世界完全没有关系。类似的思考都很有意思。
一些思考
读书过程中记录下来的一些思考
人其实知道自己无知吗?
作为移民,我们很容易认为自己遇到的所有问题都是由外部世界造成的。但实际上,我们最大的挑战往往源自内心。无论是在中国还是地球上的任何一个家庭,都是如此。
当我不想做一些事情的时候,有时候完全不是因为这个东西有如何如何的困难,而是我心中首先有了一个不想的想法。我明明知道我不懂一些东西,我只是大概只是知道如何找寻答案,也许可能要花以年为维度去找寻到答案。其实我不知道自己无知,也许知道自己的无知只有一点点,实际上对比你找找寻答案中发现自己的无知,那点点自知之明根本不算什么,所以我觉得人其实不知道自己很无知。只有知道自己无知才能保持好奇心吧。
当发现自己无知的时候,需要及时记录下来,立刻开始去找寻答案。
是否可以通过文字描述给计算机一种颜色红色,使得从未见识过红色的计算机识别红色呢?
我们将这种技术称为“单样本学习”(one-shot learning)。这种技术与当时主流的图像识别方法背道而驰,但我们是从一个众所周知的能力中获得了启发。
我从这句话思考到,似乎之前有看到类似的疑问:“先天盲人能理解颜色吗?”
一个有代表性的版本来自 20 世纪哲学家 托马斯·内格尔(Thomas Nagel) 的论文《What Is it Like to Be a Bat?(做一只蝙蝠是什么感觉?)》,他指出即便我们知道蝙蝠的所有生理机制,我们仍然无法想象蝙蝠“体验”超声波的感觉,就像盲人无法想象红色。
这似乎回到了“子非鱼焉知鱼之乐”的哲学思考上面去,我认为对于“先天盲人能理解颜色吗?”这个问题的答案是,不能。但是假如是 AI 呢,那就不一定了。可能通过多模态,向量映射来做一系列的解决方案。但是我认为本质上还是感知感受是否能转移的问题,本质上我认为是不能的。类似 AI 无法从本质感知东西,或者感知的感受维度太低太少了。
AI 是否变成一种特权了?
人工智能正在成为一种特权,一种排他性极强的特权。
每个问题单独来看都令人担忧,但它们共同指向了一个未来,其特点是监督减少、不平等加剧,如果处理不当,甚至可能导致迫在眉睫的数字独裁主义问题。
可以看到现在对于 AI 的很多思考,书中很早就提到过了,或者说书中说学术界很早就提出来过了,是很后来才进入大众视野的。强大的 AI 以后是否只会掌握在少数人手中,或者说 AI 资源变成一种类似于特权资源,权力越大拥有的 AI 约强大越没有限制。我觉得这种事情是极有可能的,AI 的强大资源,可能会像上层社会的人际资源一样,只会存在于小圈子中,他们有金钱去支持和购买,也有动力和权力去获取。但是 AI 的强大除了来自于庞大的算力,还来自于建立在所有人生上的庞大数据集。所以给我感觉又类似于一种特权人群对普通人群的知识税收,使得强权愈来愈强。
笔记
《我看见的世界:李飞飞自传》
李飞飞 21个笔记
01 如坐针毡的华盛顿之行
◆ 我的脑子里只有一个信条:发展的动机最重要。
03 鸿沟渐窄
◆ 作为移民,我们很容易认为自己遇到的所有问题都是由外部世界造成的。但实际上,我们最大的挑战往往源自内心。无论是在中国还是地球上的任何一个家庭,都是如此。
05 第一道光
◆ 因此,大脑并不是内部某种神秘的智力火花的产物,而是对外部世界的反应。
◆ “华尔街巨头?”我意识到,她并不熟悉这些美国文化术语。“就是股票、交易什么的。搞投资的。当然,还有很多东西要学,不过如果我真的下定决心,我觉得还是能学会的。”“嗯。”她平淡地回答,“这是你想要的吗?”“我的意思是……光是薪水就足以改变我们的生活了,而且——”“飞飞,这是你想要的吗?”“你知道我想要什么,妈妈。我想成为一名科学家。”“那还有什么好说的呢?”面对我的含糊其词,母亲的回应总是一针见血,速度之快让我得花点儿时间才能反应过来。三步绝杀,一剑封喉。我要去读研究生了。
◆ 在加州大学伯克利分校的经历让我看到了智能的奥秘,也让我认识到,深入理解视觉可能是解开智能之谜的关键。然而,在视觉研究领域,我面临着两个选择:神经科学和计算科学。神经科学可以让我更深入地了解大脑的能力,而计算科学则可以利用工程学的原理来建模,甚至复制智能能力。我决定两者兼修。
06 北极星
◆ 当我在加州理工学院的第二学年即将结束时,我已经阅读了大量文献,参加了许多研讨会和专题会。随着我们的实验结果的发表,我也看到了足够的第一手资料,因而认识到了一个重要的事实:视知觉依赖于分类。我们的大脑会自然而然地将我们所看到的细节归类为更广泛的概念,如物体、人物、地点和事件等。
◆ 2025/05/26发表想法
思考:那是否可以通过文字描述给计算机一种颜色红色,使得从未见识过红色的计算机识别红色呢?
原文:我们将这种技术称为“单样本学习”(one-shot learning)。这种技术与当时主流的图像识别方法背道而驰,但我们是从一个众所周知的能力中获得了启发。
◆ 我们将这种技术称为“单样本学习”(one-shot learning)。这种技术与当时主流的图像识别方法背道而驰,但我们是从一个众所周知的能力中获得了启发。
07 一个假设
◆ 我们都是年轻的助理教授,所处的院系竞争激烈,在事业起步的那几年里,我们都面临着“要么发表论文,要么完蛋走人”的局面。
08 实验验证
◆ 我在来时飞机上狂躁的思绪和焦灼的问题一扫而空,取而代之的是一种意外的感觉。不是平静,而是大悟,是沉思。这一次,从起飞到着陆,我一直静静地坐着,脑子里只回荡着一个念头:历史刚被创造出来,而世界上只有少数人知道。
09 万物以外是什么
◆ 2025/05/27发表想法
提示词!
原文:像所有的实验一样,这个实验开始时也是赌博,其中一半的乐趣来自不知道会发现什么的兴奋(虽然可能一无所获)。但努力最终得到了回报,我到现在都觉得我们收集到的反应非常了不起。例如,我们向实验对象展示了一张维多利亚时期的住宅内部照片,持续500毫秒。一个实验对象写道:“19世纪的豪华客厅,装饰华丽的单人座椅,墙上挂着一些肖像。”
◆ “你是说和一台机器约会吗?就像电影《她》一样?”学生的话引起了全场的笑声。斯派克·琼斯(Spike Jonze)的电影《她》讲述一个男人爱上了人工智能伴侣的故事,大多数人都对这部电影记忆犹新。“为什么不行呢?”另一位学生回答道,“如果机器有足够的智能,能够像我们人类一样进行真正的对话,就像我们现在的对话方式一样,那么谁又能说人和机器之间不会有恋爱的可能性呢?”“我不知道……对我来说,这听起来有些荒诞。”“但原则上没有任何障碍,对吧?我们至少能在这一点上达成一致吧?”
◆ 在这个曾经鲜为人知的竞赛中,AlexNet展示了大规模数据集、高速图形处理器和深度分层神经网络三者近乎神奇的组合。
11 无人可控
◆ 词不达意的问题依然存在。使用“现象”一词太过被动,“破坏”显得粗鲁,“革命”过于自我陶醉。
◆ 人工智能正在成为一种特权,一种排他性极强的特权。
◆ 每个问题单独来看都令人担忧,但它们共同指向了一个未来,其特点是监督减少、不平等加剧,如果处理不当,甚至可能导致迫在眉睫的数字独裁主义问题。
◆ “科学、太空和技术委员会听证会现在开始。”委员会主席、弗吉尼亚州众议员芭芭拉·科姆斯托克(Barbara Comstock)对着麦克风淡淡地说,“早上好,欢迎各位来到今天的听证会。今天听证会的主题为‘人工智能——威力越大,责任越大’。”至少我听出了其中一句话是电影《蜘蛛侠》里的台词,说明我还是有一定能力的。
◆ 我们要从根本上重新构想人工智能,使其成为以人为本的实践,这个共同的目标就是下一颗北极星。
12 下一颗北极星
◆ 那是2019年的春天,是“CS231n:卷积神经网络视觉识别”课程开设的第三年,选课人数呈爆炸式增长。这门课很快就成了我最喜欢教授的课程。
◆ 2020年9月,在距离我们初次对话近十年后,我和阿尼发表了题为《用环境智能照亮医疗保健的黑暗空间》的论文,对我们的研究进行了全面的回顾,并介绍了我们对智能传感器的完整构想。
◆ 然而,我越来越感觉到,这样的解释只触及了技术细节,并没有回答更本质的问题。大型语言模型,即使是多模态的大型语言模型,可能也并不具备真正意义上的“思考”能力。看看就知道了:大型语言模型很容易出现荒谬的概念性失误,也乐于编造听起来合理但实际上毫无意义的胡言乱语。了解这些事实有助于我们避免过分迷恋模型的能力。
– 来自微信读书