今天改了Substack的名字,叫“蜉蝣天地”。之前是读另一个叫“Probably Good”的newsletter,所以给我这个起名叫“可能重要”(Probably Important)。这个“probably”本是为了听起来谦虚,但加上“important”,反而显得有点自大。正好最近读资中筠老师的自传,题目是“蜉蝣天地话沧桑”,感到“蜉蝣天地”是个很好的意境,表示了个人在世界的渺小、但同时又富有生命力地活着。这似乎更符合这个newsletter的定位 - 虽然渺小,但有着自己的生命力。所以频道更名为“蜉蝣天地”。
今天中午在学校听了一个关于新冠封城的学术报告。一般我们会认为,在新冠期间,封城和针对人口的监控让共产党失去了民心,降低了公众对政府的信任。而学者通过问卷调查发现,封城的确伤害了民众对政府的信任,但大规模的监控行为却缓解了信任的下降。这里的监控是广义的监控,包括接触者追踪、健康码等数字端的人口监测和管控。通过采集全中国的封城数据(主要是追踪各省公布的地区风险级别),并匹配问卷调查和实验手段,中国的民众似乎认为,虽然他们并不喜欢封城政策,但监控行为帮助他们更好地了解到身边的病毒危险有多远,获得新信息,所以感到安全。
学术报告中有两张图引起了我的兴趣,一张展示了新冠三年的各省新冠病例数量,另一个是封城程度。两张图完全没有明显的关联。东部沿海普遍经历较少封城,病例除了个别地方比如上海之外,病例适中。但新疆没什么病例,却遭遇了全国最严格的封城之一;病例较高的吉林省又几乎没怎么封城。我想这样的数据至少说明了中国的封城政策的随意性。封城和本地疫情的严重程度无关,各省是想封就封的。
报告中还有一张图,展示了省内手机渗透率越高(比如一人有两台手机),受访者对政府的支持就越高。当时报告人没有给出解释,但细想一下,好想合理。当时许多人(包括我身边很多人)都通过持有两台手机来逃避健康码的限制,所以手机越多的人其实越不受数字监控的管制。既然规则不再影响他们,那自然也就降低了对政府的不满。而那些只有一台、甚至没有手机的人没有出路,只能损失自由,不满会更强烈。
在中国,民众自然从来都没有选择政府和政策的机会。在这里问民众“你是否支持政府”或者“你是否支持这项政策”,这本身是很有问题的事。就像别人问我,我是否喜欢我的父母,我其实不总是知道怎么回答,因为我也只有一对父母,不知道别的父母是什么样的,从来没有选择的机会。总体上我还是对我的父母很满意的,因为我父母确实对我很好。但如果我真的有不同选择、甚至各位父母都要开始竞争小孩的支持,那我可能会有很不同的答案。当我选择受限的时候你问我是否喜欢这个唯一选择,这其实是个不成立的问题。我想没人会天然喜欢封城,但你又能怎样呢?
学术报告结束后,正准备回胡佛塔里,结果走到一半赶上了韩国总统访问,一长串的黑色吉普车占了整条马路,警察拉起了铁栏杆。也不是之前没见过总统,但这么大架势还是头一回见。办公室前门都被拦了起来,最后我找了个小门、登记后穿了进去。
在独裁国家,元首现身往往伴随着官方组织的拉拉队夹道欢迎。在民主国家,拉拉队通常都被抗议者替代,欢迎词也变成了抗议演讲。今天在胡佛研究院外面站了一批韩国人士,手持韩语和英语标语,控诉日本是“imperialist”,呼吁首相下台。韩国人的抗议我是第一次见,红色的牌子到处都是,最大的亮点是人群中的大鼓跟着台上的口号有节奏地响起,台下的人们呼喊着抗议口号,虽然人数不过寥寥几十人,但响彻几栋楼宇之间。有趣的是现场抗议的不仅有韩国人士,还有支持巴勒斯坦的美国人士。他们上台说是和韩国人站在统一战线,是全球的正义战线。他们反对美军在中东的军事基地和对以色列上千亿的军事援助,让中东民不聊生。他们控诉日本和美军是一伙的,因此支持韩国人。我听后觉得一方面为国际主义的精神而感动,虽然彼此的工作话题有所不同,但不妨碍大家站在一起。另一方面,不知道这位巴勒斯坦的支持者是如何看待美军在韩国驻扎、保护韩国面对北朝鲜的威胁的。不得不佩服抗议者的精神。我是很喜欢围观抗议的,在牛津、伦敦、阿姆斯特丹、波士顿、巴黎、哥本哈根、香港,我所到之处总能遇到抗议。今天如果不是雨大,我可能还会多待一会儿。
回到办公室,楼下的大鼓声不绝于耳,窗外的雨越下越大。打开电脑,读到OpenAI的CEO奥特曼同学被开了,没想到AI先消灭了自己老板的工作。有人说这是乔布斯离开苹果式的商业迫害,是门口的野蛮人抢走了创始人的梦想。我倒是觉得是Sam Altman偏离了OpenAI的梦想。这原本就是个非营利组织,使命是全人类的福祉。结果Altman通过和微软、ChatGPT以及现在推出的appstore,直接把公司做成了一个商业公司,这是不符合最早OpenAI建立的初衷的。而董事会的表现让整件事看起来是Altman裹挟董事会进行他的操作,现在董事会认为他过头了,就把他开除了。
在了解他的故事的过程中,我发现了他妹妹Annie Altman长期控诉他实施虐待,包括精神、性、科技、财务,等等。Altman是世界级的富豪,可妹妹居然贫困潦倒、健康堪忧,要靠性工作维持生计。这里有我查到最全的指控,感兴趣可以看看。
去年八月,我在湾区参加了Future Forum,见到Sam Altman本人。这是个闭门的青年论坛,邀请一些湾区大佬与理想青年一起聊聊如何让世界变得更好。今天分享一下当时的对话记录。我记录了逐字稿,但因为打字速度有限,有些地方不准确,请谅解。
主持人(下为“主”):你的工作很棒。在你的博客文章“How to be successful”里面,你写人要相信自已。我们应该有多相信自己?
Sam Altman(下为“SA”):我研究了很多高效人士,他们的共同点是自信、专注和人际关系。他们风格各异,有些是伟大传道者、快速思考者,但这三件事是很难错过的。当然,当我们自信到自我欺骗,那就过度了。如果你有非常高的自信,但不具体,你问他们在做什么,他们不清楚,那就不起作用。
我遇到过很多 YC 创始人,有些人不会表达或不够自信。 EA社区可以接受自我批评,这点很好。 但ea的问题不是信念,而是专注、意志、决心的问题。 人们常陷入瘫痪,因为他们说自己只想做最重要的事情,所以很多人都在协调其他人,真正去做的人并不多。 我们需要一小群忠诚的人做出具体的、不受欢迎的赌注,并且愿意经历一切阻止你并可能出错的事情。
主:你对有抱负的21岁年轻人有什么建议?
SA:这里有很多人在录音。我会努力效仿那些拥有你喜欢的职业的人。把自己放在一个讲很多有趣事情的社区里,注意你从谁那里接受建议。我很擅长不被别人的想法影响太多。你会向往你的同龄人,所以你不妨选择一个你想成为的人做榜样, 选择一位拥有您想要的职业的导师。
我观察世界上的事情发生,是因为们尝试了很多事情,但并非一切都有效。 那么你需要一个良好的强化方程,不要永远在等待完美的下一步。 很多人擅长写文档,但做事却很糟糕。 如果你周围都是聪明人,你就会花时间去做事。深思熟虑和能动性都是必要的
我曾经告诉人们我在超长期的广域上思考,现在我说我使用无限的时间广域来思考。 我很惊讶许多最有思想、最成功的人仍然只是以 5 到 10 年的时间维度来考虑问题。 有些人说 AGI 很重要,但我只关心 5 到 10 年。这显然是错误的。
主:创始人类型的人会犯哪些常见的错误?
SA:有些人有所谓的“第三人生计划”。所谓的,我想解决气候变化问题,但这让我对赚大钱的朋友很生气,所以我要先赚大钱,然后再做别的。 任何一条路都会有成功的人。你可以专注于致富,或者解决气候变化。 但像这样被困在路上死掉的人也很多。
以及,创始人身边的回音壁太多。 与现实的接触是好事,但创始人很容易陷入困境而失去现实。
有时我们也会被一种生活方式束缚。比如,每年参加一次会议很好,每月两次就太多了,每周参加都出去party很糟糕,也许应该好好工作。
我也想为EA说些好话。我深深感谢ea理性主义运动,因为长期严谨的思维在硅谷已经完全消失了。 这是对世界的一项令人难以置信的服务,世界不应该陷入没有主动权的陷阱。 我们需要像EA这样从长远考虑,考虑通用型人工智能,或者总体上让每一美元都能发挥最大作用。 理性主义是伟大的,科学史和经验主义都给世界带来了更多进步。我最喜欢的一本书之一叫“The Beginning of Infinity”。这是推动人类前进的动力。 EA的崇高目标与实证方法相结合是非常强大的。
主:应该如何设计一个社群?
SA:这不是我的强项,也不是进步是如何发生的。试图设计一个社区不如有目标和文化的有机社区那样有效。人们应该目标解决正确的问题。 我们很容易会陷入事情太多或错误的问题中,也很容易选错人。 对于年轻人来说,这是特别难以避免的陷阱,需要练习。 与合适的人一起工作会给你最大的好处。
我的警告是,不要太关心别人的想法。 每个人都是从众思维(groupthink)的受害者,年轻人在生物学上尤其如此。 年龄大一点的人更知道自己想解决的问题。我们应该保持怀疑态度。
最重要的社区是小型和非正式的社区,而不是有组织的社区。人们只需找到属于自己的部落,同一组人,10 或 20 人,我从大学起就知道能够再次合作,交流想法,不一定都是大学同学,但个人应该尝试培养它,这也是生活中有趣的一部分。
主:你住过硅谷的黑客屋吗(hacker houses)?
SA:从来没有,嘘。我喜欢我的空间。我发想想自己和一群一起工作了几个小时的人一起,回到伴侣身边。我很重视自己的和平与安静。
主:大家都知道传统的面试是非常糟糕的决策方式。 有哪些更好的方法吗?
SA:对我来说很疯狂的是,目前业界标准是坐下来,他们每人聊 45 分钟,然后你决定未来几年的数千小时,而接受采访甚至不是他们工作中会做的事情。
面试基本上是一个过滤器,帮你决定你是否喜欢对方吗,这很重要,但是你真正在乎的特征 - 能动性、深思熟虑、有效性,所有这些都很难在面试中观察。这就是为什么我更喜欢与我共事多年的人一起工作。 我的晋升、招聘记录是 60 次,相当不错。 我一般会与他们一起工作几天。 有些人认为这是侮辱性的,但它是好的。
主:你对 60 年后人类的长期未来有何看法?
SA:世界将会发生两件事:接近agi和核聚变。智能和能源的成本几乎驱动经济中的其他一切。有些东西很贵,但如果你拥有近乎免费的智力和能量,事情就会发生很大的变化。 可惜的是,这些好处不会一口气地向全世界推广,所以这是社会的最大障碍。 但这仍会是历史上最大的一场革命,至少是自工业革命以来。我打赌这个房间里的很多人都同意这一点。 有多少人认为有 50% 的机会?如果你相信这是真的,那么有一整套有趣的事情和公司正在发生,但尚未达成共识。
值得注意的是我写下了可能发生的事情的粗略时间表。语言模型的进展很好,但现在我可以考虑之后会发生什么。
主:你认为下一个重大范式转变是什么?
SA:我们很快就会有更强大的模型,但预测它的走向仍然面临很多挑战。我会尝试搞出来不会犯错误的模型。
主:你能用类比或者别的概念讲讲你对人工智能和通用人工智能的想法吗?
SA:我不用类比思考。有些人用进化论来比喻,我没有。人工智能是一件令人谦卑的事情,因为它有智能,但它的形式非常陌生。 它提醒我,我们并没有那么特别,还有其他方法可以做我们所做的事情,但我没有什么深刻的类比。
主:谁对你影响最大?
SA:彼得·泰尔(Peter Thiel)是我第一个想到的人。 他是一位原创思想家,也是第一个讲“先入劣势”的人,给我很大启发。他认为逆反主义(contrarianism)是找到有价值的事情的方法。他的书《0到1》是我读过的唯一一本优秀的商业书籍。
主:如果你不做你正在做的事,你会做什么?
SA:我几乎把时间都花在了人工智能上。如果我还有时间再做一个项目,我想向刚开始职业生涯的人提供补助金,为期 10-20 年 20 万,条件是日后有权向他们创办的任何公司投资 500 万美元。如果你每年能够支持 500-1000 人,那么价值巨大,非常重要。 他们不必创业,但少数优秀的创业公司会负担全部项目费用。 他们可以从事政治、媒体等工作,仍是好事。
我对学术界没什么好话。学术是个大错误。 我们应该寻找替代方案。
主:目前现有的孵化器,除了YC之外第二好的是什么?
SA:我认为 YC 相当不错。硅谷这个机制,无论什么把你带到这里,都是相当棒的。 这是科技的复兴时刻,就像佛罗伦萨一样。 湾区有一些神奇的东西。,这里有一堆组织松散的集体体系。
主:通用型人工智能的定义是什么?
SA:有点像最高法院,当我看到它时就知道了。这个系统可以完成当今经济上可行的工作的一半以上,有自我完善的能力。 不一定要重写自己的代码,但可以继续前进,学习新技能,解决新知识。
如果聚变在通用人工智能之前启动,它将加速进展,至少提供了更大能源。
主:你犯过最严重的错误是什么?
SA:我当时 21 岁,相当穷,但我做到了。在我职业生涯的早期,我不得不解雇某人,而且不是很有同理心,以一种伤害性的方式这样做。我们当时是亲密的朋友,现在是了。 我处理得很糟糕而且我从来不知道如何解决它。
主:我如何识别人才?以及如何判断这些人的未来成长?
SA:我会会在三个月内与对方见面三次,了解他们进步的速度有多快,他们能做多少,了解观察某人的产出率有多重要。人们的属性不同,有的是领导者,有的是经理。我知道我作为一名领导者很优秀,但我花了很多时间试图成为一名经理,却并不优秀
你需要刻意练习。 每个人都想要听一些秘诀,但其实是尝试、不断反馈循环。如果不合适,就下次换个办法。你要坚定地相信,如果你这样做,你就能取得更大的进步。要么你就要在未来50年里留在第一年的水平上,尝试做一些事情,又不喜欢反馈,所以我不学习。 表面上我很好奇,但并不太清楚什么有效、什么无效,很乐于说自己不知道、没注意。 我确信做的事情很糟糕,但又不知道为什么。
主:你如何看待AI的威胁?
SA:我希望我们可以在人工智能相当薄弱时建立价值对齐的研究人员。
AI的威胁大概分为三类:内部对齐失败问题,导致人工智能不关心我们并成为失控的人类帮手;人类故意滥用AI,杀死所有人;严重破坏稳定的世界。这些是我们设计世界的时候需要考虑的。我们必须要对三点都判断正确。这不只是对齐问题,也要和政府保持关系来避免故意的滥用。
主:你最逆反(contrarian)的想法是什么?
SA:现场手机太多,这个问题过。
主:是什么每天激励着你?
SA:即使我们致力于对世界有益的事情,我们的行为方式都有些自私。我们都试图以某种方式满足自己。激励我的是努力实现有意义的生活。我个人对通用型人工智能和核聚变感到兴奋。我不认为我是唯一的,但会是第一个。许多聚变技术都将成功,但重要的是你的制造成本低、制造速度快。 我们是唯一一个预计能够满足全球需要、并将价格降低十倍的国家。困难的部分不是实现核聚变,而是让核聚变迅速取代地球上的所有能源。
在我们的工程研究中,我们构建了一个廉价、快速且有效的系统。 我们没有热场、涡轮机,只有直接热量。 也没有长期核废料,中子数量不超过8亿,因为要在工厂制造。 即使在科学研究中,我们也要牢记市场的需求。
主:你放弃了学术界,但你怎么看智库呢?
SA:更好一些,但不应该试图创造新的学术界。我真的希望有人去发明新的知识系统。如果谁每天神奇地给我5个小时,我就会做这件事。 我会开始开始采访候选人,用某种共享的方式给他们资助。
主:你怎么看用通用人工智能来做长寿研究?
SA:我喜欢这个想法。长寿是我仍然资助的少数几个领域之一。 几年之内,这会相当酷。 我们也许还需要几十年的时间才能弄清楚。
主:您为什么主要寻找乐观的人?
SA:你需要一点悲观情绪但不要太多。极度悲观的人往往不会取得成就。冷静的判断是一件好事,但我们总有理由说不,不做一些事情。乐观的力量非常强大。
主:你还好吗?
SA:我非常高兴,每天早上醒来都充满感激。如果你快乐,享受你的生活,可能精力充沛,积极主动
笔者:你对中国同行有多担心? 您认为 EA 应该做什么?
SA:非常重要,非常担心。我在这方面知道得还不够多,希望有人能与我们分享更多这方面的信息。
主:你怎么看DeepMind?
SA:仅仅有DeepMind世界是不安全的,你不要认为 DeepMind 认真对待安全,单一的努力是危险的。他们让世界大肆宣传 AGI,引发了许多可怕言论。
主:你希望别人如何与你竞争?
SA:别人应该在安全方面与我们竞争。 在AI能力上我们已经很难被击败。机器人技术很难,但相比agi来说不太重要。
主:人工智能研究人员的健康状况如何?
SA:研究人员面对的压力很大。最可怕的是,建造人工智能的人都忧心忡忡,害怕人工智能导致世界末日即将来临,即使这些人工智能研究人员确实希望造出AGI。
主:你的观点都从何而来?
SA:来自个人。如果我是总统,我会优先解决美国的移民问题,尤其是引进高新技术人才。如果有人制造出新的半导体,我会很高兴,但这是个材料科学问题。