Why·Liam·Blog

人生若如初見

  • 科技公司的福利和个人发展关注已成为争夺人才的工作场所文化,但随着股市动荡和经济环境不平衡,科技公司正在转变为优化盈利能力而非增长,导致裁员潮和失业风险升高。
  • 职业倦怠是由长期工作压力引起的心理状态,具有压垮人的疲惫、愤世嫉俗和无力感等特征。其反义词为「参与」,包括高能量状态、强参与和效能感。目前个人干预不太有效果,最好的方法是将自己从导致倦怠的环境中移开,并花时间恢复。康复是有保证的,在时间推移过程中大多数患者会继续工作。
  • 使用 37% 规则来进行选择,能够在采样和筛选中获得最佳结果,同时我们需要平衡利用或探索的心理机制。

photo-1599840448769-f4ac7aac8d8b

近二十年来,科技公司倡导一种以让员工对旨在无缝整合工作和生活的福利为中心的方法。他们制定了福利计划和无限假期,优先考虑个人的举措,以及标准的员工福利。这与高薪和股权方案一起,不仅是获胜的一种方式,也是主导人才争夺战的一种方式。硅谷公司的快速发展和成功,部分得益于其独特的人员实践,重新构想了一代人的工作场所文化。

正如他们所说,时代正在改变。该行业正面临着不平衡的宏观经济环境和动荡的股市,这给上市科技公司带来压力,并导致 IPO 不太理想。私人环境。科技公司的首席执行官们现在不惜一切代价优化盈利能力,而不是增长,有时甚至以长期持有的组织信念为代价。

这种转变在最近的技术裁员潮中最为明显。关于 Twitter 的 7,500 名员工中的一半被裁员,已经有很多公开讨论,这是在其新所有者 Elon Musk 的领导下进行的一项举措。

阅读全文 »

  • 结构性改变才能真正改变社会和产业,而这种改变往往是一类大型成本从边际走向固定;模型的成本现在也正在发生同样的转变,大模型将成为技术核心和产业化基础,让个人见解变得至关重要。
  • 人类和 GPT 这类语言计算模型是高度理性化的结晶,在人对其进行理解过程中,我们应该转换视角思考人类作为一个语言机器时的关系特征,以此探讨符号智能与物体之间可能存在的空缺及感官经验上的差异。同时,GPT 可以被看作一种在字符库中漂浮的智能,尽管它可以回答各种问题,但永远缺乏涉及到真实物体的直接关系,因此其知识只能是语言化的。
  • 寻找自己喜欢的工作其实不易,但很重要。父母对职业不满可能影响孩子寻找喜欢的工作;名利双收的职业是最危险的,因为年轻人容易被权利、前途和声望蒙蔽而迷失方向;不能总有人做讨厌的工作,选择一个值得追求的宏伟目标才会配得上你的努力;钱越多的工作越需要付出全部的精力,加上高生活开支,容易丧失再选择所爱的可能。

Request for Business Intelligence and Assistance

一定要记住,任何改变社会、改变产业的,永远是结构性改变。这个结构性改变往往是一类大型成本,从边际成本变成固定成本。

我在 CMU 念书开车离开匹茨堡出去,一张地图 3 美元,获取信息很贵。今天我要地图,还是有价钱,但都变成固定价格。Google 平均一年付 10 亿美元做一张地图,但每个用户要获得地图的信息,基本上代价是 0。也就是说,获取信息成本变 0 的时候,它一定改变了所有产业。这就是过去 20 年发生的,今天基本是 free information everywhere(免费的信息无处不在)。

Google 为什么伟大?它把边际成本变成固定成本。Google 固定成本很高,但它有个简单商业模式叫广告,它是世界上高盈利、改变世界的公司,这是拐点关键。

阅读全文 »

少楠在播客《与理想屯的球姐聊聊:斯多葛学派、模仿欲望、知识管理以及中国科幻》中讲自己的「人生母题」

因为我做产品,产品就是在研究人的动机。就说白了就是在研究人的动机和欲望是怎么来的。所以早先就是所有跟这一切相关的,我都会很感兴趣。在整体方向上,我会关注几个领域。
一个就是普通的产品技,另外一种就是说跟人性相关,欲望,行为经济学,群体心理学。
后来我就会发现微观经济学可能都有价值更大。因为微观经济学里有很多是理解人性的东西。比如说我们怎么设计税收系统,然后我怎么通过市场来激励他们。
然后跟宗教哲学有关。因为你要去跟自我打交道,然后最近可能又加了一神经学,因为你就会发现,其实杰拉德已经讲的是那个哲学里面,是可以用多巴胺的角度来分析。

在年轻时候的职业选择,都是别人认为这个职业好,我就要去做别人认为看的这件事情。E03.25~35岁如何做好职业规划?职场没人告诉你的8个忠告。在中国是的教育中,这个一直是一个令人很困惑的地方。在 18 岁,人生刚开始的时候,就要让他觉得下辈子的方向。对于下辈子的思考,想要做什么,擅长做什么,这不是一天、两天就知道的事情。是需要一个自己不断探索,不断去发展发现自己的一个过程。

最近又到了职业的倦怠期。塔勒布说,规律性有毒,让你更脆弱,比如月薪。规律性为什么有毒?因为它暗示了持续性和稳定性,但没有事物能够持续稳定。

在慢性毒瘾中,就会让我自己不断的反思,不断的思考自己与世界的意义与关系。Elon Musk 说,我非常喜欢电子游戏,但如果我做出非常棒的电子游戏,对这世界能有多大的影响?我也每天在自我怀疑。

阅读全文 »

  • 只有在允许深度注意力的环境中,才能产生文化。这种深度注意力,却逐渐边缘化,让位于另一种注意力,「超注意力」。这种涣散的注意力体现为不断地在多个任务、信息来源、工作程序之间转换焦点。
  • 我们比 AI 强的地方,就是我们比 AI 愚蠢、狭隘、傲慢、有缺陷,并对事物抱有偏见。
  • 通过让渡决定权,来让自己处于弱势状态,一旦出现问题,可以有人埋怨,避免自己去承担主要责任

在许多 Prompt Engineering 的框架中都有记载(比如 CRISPE),让 ChatGPT 更好工作的核心方法之一,是告诉它需要扮演一个什么样的角色:

  • CR: Capacity and Role(能力与角色)。你希望 ChatGPT 扮演怎样的角色。
  • I: Insight(洞察力),背景信息和上下文(坦率说来我觉得用 Context 更好)。
  • S: Statement(指令),你希望 ChatGPT 做什么。
  • P: Personality(个性),你希望 ChatGPT 以什么风格或方式回答你。
  • E: Experiment(尝试),要求 ChatGPT 为你提供多个答案。

对于同样一个问题,比如「核裂变的原理」,ChatGPT 在扮演大学老师、科普作家和幼儿园老师的时候,会给出完全不同的答案。

阅读全文 »

ChatGPT 背后的模型是 GPT-3.5-turbo,去年 OpenAI 发表了一篇《Training language models to follow instructions with human feedback》的论文,介绍了 GPT 3.0 到 GPT-3.5 模型的演进过程。

使用标注者编写的提示,然后使用监督学习来微调 GPT-3,之后再通过人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)进一步微调这个监督模型。在评估后,13 亿参数的 InstructGPT 模型的输出优于 1750 亿参数的 GPT-3。此外,InstructGPT 模型在信息真实性上有所提高,在生成有害输出方面有所减少,同时具备内容泛化的能力。[1]

在第一阶段人工主要标注了以下数据集:

  • SFT 数据集: 13,000 条数据。标注人员直接根据 prompt 集中的问题,写出对应答案。
  • RM 数据集: 33,000 条数据。该数据集通过将 prompt 集中的问题再次喂给经过第一阶段微调后的 GPT 模型,数据标注人员针对 GPT 的不同回答作出排序。

同时在论文中说明了这部分标注人员主要来自于外包或 Scale AI。(也有资料说是 Scale AI 和 OpenAI 各找了 30 个博士做语料标注,但是暂时没有找到消息来源。)

阅读全文 »

  • 科技的发展是赋能人类更强大的工具,但每个个体的能力并不一定随之变得更强,某些能力可能完全依托科技。虽可以提高知识生产力,但经由科技赋能释放出来的脑力是否创造价值取决于个体的选择。科技的赋能可能改变大脑资源分配和结构,但其影响因素对每个人不一定相同,也存在剥夺某些能力的风险。科技选择人的趋势下,科技的应用也可能存在选择和歧视的现象。
  • 人们常常将手段当作目的,忽视本质问题,导致问题的产生。像 XY 问题一样,团队或个人可能陷入对手段的过度追求而忘记了解决本质问题。这种现象可能有多种原因,例如对技术的偏爱、对用户需求缺乏了解、业务规划的偏差、追求 KPI、追求用户量等。此外,团队的领导也可能搞信息不对称,只告诉团队要做什么,而不告诉为什么要这样做,导致时间和经历的浪费。
  • 幸福的三个指标:自由支配个人时间的量、自由支配个人时间过程的质、自由支配个人时间结果的质。这三个指标围绕着一个点,即时间。缺乏自由支配时间会使人不幸福。幸福的定义是个人生活有意义。该定义可以拆成三个指标:使用权利、使用效率、使用结果。

有了ChatGPT,人类懒得思考了

ChatGPT 等工具会提高人的工作效率和产出。但它会让人类使用者自身变得更「聪明」,还是「更笨」?更「强」,还是更「弱」?

现代人类的生存高度依赖技术与知识体系,而这些技术、知识是由人类共同体作为一个群体掌握的,借由各种各样的制度体系维持下来(例如教育机构、教材及各种图片文本资料等),向后代繁衍。这些技术与知识不是由某个具体的个人掌握的。个体脱离了人类共同体后就很难生存。

把人类视作一个整体,在科技的支持下当然是变得更强大了,但并不意味着每个个体的能力都在变强。

阅读全文 »

  • AI 将会进一步将难以规模化的要素变成可以集中提供的、边际成本极低的数字能力,而数据成为最重要的资源,因为 AI 发展将一步步替代工作中的智慧部分,即一些简单的模式识别和创造任务。
  • 面对生成式人工智能 ChatGPT 的挑战,传统教育需要进行重大调整,包括培养能独立思考和正确价值判断的人、协同改进教育方式以及超越知识学习更加关注学习品质等方面。如果不改变传统教育方式,教育将无法维持下去。
  • 费曼学习法指出通过讨论、实践和为他人讲解才是有效的学习方式,其核心包括选择学习目标、以小学生为对象讲述、找到难点并重新学习、简化知识点并用通俗语言表述,同时推荐了一些书籍,以及谈论了荒谬世界的主题。

图片

我们对一件事儿了解越少的时候,信心反而越高涨(无知者无畏)。

比如不懂 AI 的人,看到 AlphaGo 赢棋的时候,就觉得 AI 第二天就会统治地球。

而随着理解的增加,我们反而会越来越不自信。

阅读全文 »

  • 在 AI 领域,不断学习是必须的。即使我们被为菜鸟,也必须接受新技能和知识,以适应新的环境。虽然在这个过程中可能会遇到更多挫折和失败,但我们也可以从失败中汲取经验,变得更加谦虚和适应,并最终获得成功。
  • 头脑风暴想法和解决方案虽然受欢迎,但研究表明集体头脑风暴是浪费时间,转而进行头脑风暴问题可以加强协作、降低风险并让您走上成为学习型组织的道路。
  • 双边市场具有两组客户通过一个平台产生互动,其中一组客户的决策和行为会影响平台带给另外一组客户的价值的特征。在双边市场的结构中,哪一边对另外一边的外部性更强、平台是收取固定费用还是从交易中抽成、Single-homing or Multi-homing 是最重要的因素。

在这个话题上,最好、最可信的劝诫来自「黑客与画家」Paul Graham。2020 年,他写了一篇文章,Being a Noob

我年轻时,以为老人会把所有事都搞清楚。现在我也老了,发现并非如此。
我不断地感觉自己是个菜鸟。我总跟初创公司交流,我对它们致力的领域完全陌生。我会读到些书,我不太懂它们讨论的话题。我会来到某个国家,我不知道事情在那里如何运作。
当菜鸟的感觉并不舒服,「菜鸟」这词显然不是恭维。但现在,我发现当个菜鸟也有好处:局部看来,你越是个菜鸟,全局看来,你就越不是。
比方说,相比于搬到运作方式完全不同的 Farawavia(作者虚构的地名),你呆在老家就不太会感觉是个菜鸟。但是如果你搬了家,你会懂得更多。也就是说,「菜鸟感」与实际上的无知呈负相关。
……尽管这种感觉并不愉悦,尽管人们有时会因此嘲笑你,但是菜鸟感越强,越好。

我在 AI 领域找到一个绝佳案例,来印证 Paul 的观察:OpenAI 联合创始人 Greg Brockman 掌握深度学习的经历。

阅读全文 »

这个月的主旋律围绕着 ChatGPT 展开,仿佛 WEB 2,WEB 3 都已经是过去式了,人们仿佛找到了新的金矿。

在投资上还是围绕 GPT 展开,但是我低谷了 ChatGPT 的先进性,以为这个是可以短期内弯道超车的,选择了非 ChatGpt 的一线企业,从而没有获得丰厚回报。

从目前的来看,GPT 还没有挖掘出应有场景,有点和 WEB3 类似。WEB 3 之后的行径路线,更多的偏向故事,但目前来看也没有气候级别的产品。不知道 GPT 是否可以扩越这个时代。

其实,这个阶段大家都很焦虑。有的人怕会被 AI 替代,所以他们挖掘的不可替代性;有的人担心没有吃到这一波红利,他们探索产品化的应用。

如果深究这波浪潮中,有什么是不可以被扩越的,我觉得还是算力。

阅读全文 »

  • OpenAI CEO Sam Altman 在与 Lex Fridman 的对谈中表示,AI 系统是人类集体努力的结果,其成果应该由所有人共享。未来需要重点解决消除贫困等问题,并给用户控制权,让用户能从全局层面给 AI 下指令,同时 OpenAI 作为非营利组织更能抵抗市场压力并承担对发布工具的责任。
  • 我们面临的信息过载和时间管理问题并非暂时的,而是构建充实而富有成效人生时普遍存在的错误。尽管技术可以帮助我们更好地管理时间和设置优先级,但最终解决这个问题的唯一方法是接受我们无法做到所有事情,并决定什么是最重要的,然后去做。
  • 抖音电商直播账号多采用数量对抗算法,视频同质化,内容也往往功利且不够吸引人,头部账号则更注重人设和 IP;除此之外,账号们也可以通过培养人设或实行付费策略来脱离以数量取胜的困境。

3 月 20 日,OpenAI CEO Sam Altman 和科技主播 Lex Fridman 进行 对谈,主要讨论 GPT-4、通用人工智能(AGI)、OpenAI 公司、AI 带来的潜在问题,以及 AI 的未来。

总体来说,Sam Altman 认为,GPT-4 等 AI 系统并非少数人的成果,而是源于无数人的共同努力,是人类智慧的结晶,成果也应当由人类共享。

  • 从 ChatGPT 总体使用情况来看,用户大部分时候都是善意的,但不是所有人、所有时候都是善意的。人们也会在系统的边缘试探,试图挖掘黑暗的部分。
  • 使用 GPT 类工具的幸福感很强,帮你达成 10 倍生产力。
  • 新世界里,AI 是人类意志的延伸,是我们能力的放大器。
  • Sam 认为社会对「想要更多工作」或「更少工作」的态度有些模糊。一方面,即使是不喜欢工作的人,也觉得需要一份工作,让自己安身立命。另一方面,当法国试图提高退休年龄,阻力很大,人们认为这非常可怕。未来会有更多人从事「更好」的工作。工作会成为更宽泛的概念,不止于为了吃饭而必须做的事情,而包括创造性的表达,包括找到成就感和幸福的方式,
  • 在过渡阶段,重点需要放在消除贫困上。OpenAI 在做实验,如 world coin 项目,如「全民基本收入」(UBI)实验。UBI 实验将会在今年做完,结果预计于明年公布。
  • 人类天生惧怕改变、惧怕不确定性;也会因为工具过于好用而害怕。Sam 指出,AI 非常强大后,仍然不能代替人。数十年前,AI 就在国际象棋中赢了人类冠军,但是今天仍然有很多人在玩国际象棋。人们也愿意看真人下象棋,而不是两个 AI 下象棋。人们仍然喜欢戏剧性,喜欢我们有而 AI 没有的那些缺陷。
  • 让外界尽早接触这些技术,让(公众)得以塑造 AI 发展的方式,帮助 OpenAI 发现什么好、什么不好。每次他们发布新模型时,外部世界的集体智慧和能力都帮助 OpenAI 发现他们无法想象的东西,包括模型所能做到的伟大的事情,和公司必须解决的真正弱点。
  • Sam 计划全球巡回,做用户访谈,来了解不同用户的需求与感受。一方面,因为他知道,自己的生活与大多数普通让的生活是脱节的,他想在酒吧里面对面和用户聊一聊,GPT 对他们的影响。另一方面,他认为 OpenAI 公司在避免落入旧金山疯狂氛围方面比其他公司做得更好,但仍然深陷其中。需要主动戳破这个「泡泡」
  • 未来解决路径:给用户控制权,让用户能从全局层面给 AI 下指令(System message),比如让它始终扮演某个角色(如莎士比亚)
  • Sam 说暂且不纠结具体定义(GPT-4 是通用人工智能(AGI)),只从「I know it when I see it」的角度思考,如果一本科幻小说里有个角色是 AGI,而这个角色是 GPT-4,他会觉得这本书很糟糕。所以前面还有很长的路。
  • Sam 认为,不能大大增加人类科学知识总和的系统,不能发现、发明,推动基础科学的智能,都不是超级智能。要做到这一点,人们还需要在相当重要的方面扩大 GPT 范式,而目前还缺少这方面的想法、不知道有什么值得尝试。
  • Sam 对未来 AI 的期许是:解释所有物理现象,解决所有未解之谜。
  • 做事的态度是探求真理(truth seeking),做一切能达成最优表现的事,不管它是否优雅。就像 LLM(大语言模型)这个路线曾经饱受鄙夷,但他们还是坚持下来。
  • 未来可能会有多个 AGI(人工通用智能)存在,这意味着 OpenAI 不需要战胜所有竞争对手。多个 AGI 可以在不同的领域和应用上发挥作用,这是一种有益的现象。
  • OpenAI 作为一个非常规组织,没有无限逐利的动力,因此能够更好地抵抗市场压力。具体而言,OpenAI 建立时定位为非营利组织,但这种背景下没有足够的资金来完成任务。因此,他们转变为「盈利有上限」的组织,来获得资本主义的某些加成,同时不完全导向逐利。如今由于 OpenAI 的特殊结构,它没有捕获无限价值的激励,这使得他们更能抵抗市场压力。然而,他仍然担心那些有此激励的公司。
  • OpenAI 认为,他们对自己发布的工具负有责任。需要负责的是人,而非工具。
  • Sam 说,自己和 Musk 都认为,关于 AGI 存在巨大风险。这既指需要确保安全性,也指需要让人们的生活因为 AGI 的存在而更好,而非更差。他对 Musk 现在的攻击淡然处之。
阅读全文 »
0%