投资 ABC

E54 和罗丹聊聊 AI:从助理,到师徒,再到另一个你

  • 5月11日
  • 166
  • 0

💡 大家好,欢迎来到《投资 ABC》,是一档由有知有行出品的播客节目。在这里,我们会和你分享那些投资中绕不开的知识,我是 Amiee。

我最近有一个强烈感受:自己似乎生活在持续的加速度当中。科技不断迭代,我们好像总是在追赶一个不断更新的现在:一个刚刚形成的看法,转眼间,又被新的模型、新的产品、新的用法重新改写。社交媒体上也反复出现类似的声音:「这次真的不一样」「人类文明正处在一个奇变点上」。

当然与 AI 有关。它不再是遥远的科幻概念,而是越来越具体地嵌入了我们的日常生活——

比如,我身边一位原本离科技很远的长辈,忽然兴奋地和我说,她现在查资料、做攻略,甚至买调料,都会「遇事不决,先问豆包」。可紧接着,她又问了我一个让我愣住的问题:「AI 到底是什么?为什么它好像有非凡的能力?」

我发现,虽然每天都在使用 AI,和它一起工作、写作、整理思路,但如果认真追问一句「AI 到底是什么」,我其实并没有清晰的答案。

这个问题,放到投资里,就更值得被认真对待。

如今,无论是个人投资者还是机构,都在越来越频繁地使用 AI 做研究、整理信息,甚至辅助决策。我自己也常常会和 AI 一起梳理问题。比如市场波动时,心里有些拿不准,我也会把自己的担忧说给 AI 听,希望它能给我一些分析和建议。

它的回答往往很流畅,也很有条理。有时候,甚至比我自己想得还清楚。渐渐地,我对它越来越信任,也越来越依赖。

但长辈的问题提醒了我:如果我并不真正理解 AI,也不了解它的能力边界,那么那些看似清晰、完整、令人安心的回答,究竟是在帮我看清问题,还是只是在说出我本就想听的话?而当 AI 开始参与投资判断,它究竟是在帮助我们做出更好的决策,还是也可能在不知不觉中,放大我们的偏见、情绪和误判?

带着这些问题,我和陈博士邀请到了讯兔科技创始人罗丹老师。罗丹老师有机构投研经验,也正在一线打造面向投研场景的 AI 产品。这一期,我们想请他从真实使用场景出发,聊聊 AI 的能力与边界,以及如何与它更好地协作。希望你会喜欢。

Amiee

你好,欢迎来到投资 ABC,这是一档由有知有行出品的播客节目。在这里,我们会和你分享那些投资中绕不开的知识,我是 Amiee。

最近,我有一个很强烈的感受:自己好像一直生活在一种加速度里。科技不断迭代,我们总是在追赶一个不断更新的现在。一个刚刚形成的看法,转眼间就又被新的模型、新的产品、新的用法重新改写,社交媒体上也不断涌现出新的声音。

有人说,这次真的是「不一样」;也有人说,人类文明正处在一个奇点之上。这当然和 AI 有关。它不再是一个遥远的科幻概念,而是非常具体地嵌入了我们的生活。

比如说我妈妈。她其实是一个离科技很远的人,但有一天她突然和我说,她最近遇事不决,不管是查资料、做旅游攻略,甚至是做饭买调料,都会先去问问豆包。

我一边觉得她很可爱,一边也很惊讶:在她的日常生活里,AI 已经有了不少存在感。

但很快,她又问了我一个问题:「这个 AI 到底是什么?为什么它好像有非凡的能力?就像一个黑盒子里住着魔法小人一样,魔杖一挥,就能回答一切问题。」

她问我的时候,我有点愣住了。因为我发现,虽然我每天都在使用 AI,和它一起工作、一起写东西、一起整理思路,但对于「AI 到底是什么」,我其实并没有那么确定。

而这个问题,放在投资里,就更值得被认真对待了。

现在,不管是个人投资者还是机构投资者,都越来越频繁地使用 AI 做研究、整理信息,甚至辅助决策。我自己也常常会和 AI 一起梳理思路。比如市场波动的时候,我感觉内心有些不安,不知道该不该趁现在做点什么,我也会把自己的担心讲给 AI 听,希望它给我一些建议。

它每次的回答都非常流畅,很有条理,有时候甚至比我自己想得还清楚。我渐渐越来越信任它,也越来越依赖它。

但我妈妈的问题提醒了我:如果我并不真正了解 AI 是什么,也不知道它能力的边界在哪里,那它那些流畅的回答,究竟是在帮我看清问题,还是只是在把我想听的话说给我听而已?

当 AI 开始参与投资判断,它是在帮助我们更好地做出决策,还是也可能在我们意识不到的地方,悄悄放大了我们的偏见、情绪和误判?

带着这些问题,我们非常开心地邀请到了讯兔科技的创始人罗丹老师。罗丹老师不仅有机构投研经验,也正在一线做面向投研场景的 AI 产品。所以,我们也想请他从真实的使用场景出发,和我们一起聊聊 AI 的能力、边界,以及如何与它更好地协作。

今天非常开心邀请到罗丹老师做客投资 ABC。

李罗丹

大家好,我是讯兔科技的李罗丹。我们目前主要在做面向整个投研领域的 AI agent 服务与落地。

陈鹏

罗丹很客气。其实讯兔做得非常好,在短短几年时间里,已经是在中国机构投资者领域做投研、做 agent 做得非常领先,而且应用人数也非常多的团队之一。

李罗丹

对,我们目前大概服务了 8 万名左右的机构投资者,包括基金经理、研究员、卖方分析师。我们最早实际上就是从机构买卖方投研这个角度切入的。

Amiee

包括您之前也是投研出身,是机构投资人。

李罗丹

对,我的职业经历比较有意思。我是在美国读的本科和研究生,回国之后很有幸加入了嘉实基金。

在嘉实内部,我也主导了整个嘉实从 0 到 1 的投研业务数字化转型。那大概是在 2018 年到 2021 年。

当时,作为一个机构投资者,我们有一个很大的痛点:金融机构发展了这么多年,二三十年过去了,但我们会发现,每过 3~4 年,一些业绩比较好的头部基金经理就会「奔私」——也就是离开机构,自己出去做私募。

在这个过程中,我们会发现,其实很多金融机构并没有真正沉淀下数据,包括每天投研过程中产生的一些 know-how、决策逻辑和决策流程。

所以当时我们一直在想,未来的金融机构,到底要通过什么样的方式,才能把这些东西沉淀下来?

基于这样的想法,我们在投研内部花了很多精力,从 0 到 1 打造了一个新的团队,叫 Data Lab。同时,研究员、基金经理的日常工作,很多都是对我们开放的,所以我们可以跟着 TA 们开会,跟着 TA 们去做上市公司调研。这个过程其实给了我们一个非常好的视角,也让我们能够近距离观察:机构投资者、基金经理、研究员每天到底都在做什么。

我相信,这也是很多个人投资者很关心的问题。

陈鹏

我们上一期刚好聊过这个。

李罗丹

对, TA 们每天到底把时间花在哪里?

陈鹏

所以等于是上一期我们聊了机构投资人在做什么,而罗丹和讯兔,实际上是在这个基础上把它数字化了。

Amiee

我们今天会结合罗丹老师作为机构投资人、以及做人机协作产品的双重视角,和大家聊一聊:AI 协作对个人投资者的意义是什么?

以及,金融行业在 AI 推动下,一定会出现一些新的发展,可能也会有一些新的阿尔法。我不知道,只是猜测、也是期待。那这些变化,对个人投资者来说意味着什么?

我们可以先请罗丹老师介绍一下。对您来说,这可能已经是一个非常常见的问题了,但对像我这样离科技比较远的人来说,AI 更像一个黑盒子,所以我不太理解它到底是什么。

如果是您,您会怎么向个人投资者解释 AI 到底是什么?

李罗丹

我认为,AI 是一面镜子,也是一台放大器。

AI 的能力,会随着用户提问能力的提升而提升。再加上每个人的偏好不同,1,000 个人会问出 1,000 个问题。即使是同一个 AI,不同的人和它聊天,最后得到的结果也会很不一样。

在资本市场里,我们经常会被问到一个问题:未来大家都用 AI 做研究,是不是资本市场会越来越同质化?大家得到的结论会不会都差不多?

表面上看,好像是这样。但实际上,无论是我们自己在一线的观察,还是从用户与 AI 交互的过程来看,大家提的问题、给出的反馈都非常不同。再加上学术研究和统计也都显示:同一个 AI,不同的人使用,最后得到的结果往往大相径庭。

所以 AI 本身并不创造所谓「独立的价值」。它所有的价值,都是围绕着使用它的人展开的。

今天我们看到很多对 AI 的叙述,往往会走向两个层面。

一个是资本市场的视角。过去几年涨得最好的资产,很多都围绕 AI 产业链;而人们日常生活中接触到的很多消费品类,比如白酒等,过去几年反而是在下行。这是一个资本视角下的故事。

但作为一个创业者,我更愿意相信:AI 是一个以人为本的生意。它不能脱离人的存在而独立存在。

Amiee

其实我们之前有一位嘉宾,叫李继刚。李老师来给我们做培训的时候,有一句话让我印象很深。 TA 说:「AI 是一张静默的智慧之网,但你不发问,它就不会回答。」

这其实有点像您刚刚说的:它回答的质量,取决于你向它提出什么样的问题。

但这个「静默的智慧之网」本身到底是什么,我其实还是不太理解。

李罗丹

我记得上周 Google DeepMind 团队有一篇论文,大意是说:按照现在的技术架构,AI 在未来 10 年、100 年里,可能都不会产生自我意识。

所以,它本质上是一个没有自我意识的智能体,是一个没有自我意识的回声壁。

你只有敲击它、和它说话、向它发出信号,它才会反向回应你。

这其实也印证了我刚才讲的「以人为本」:AI 和人的交互,才是 AI 价值真正被激发出来的地方。

所以我们一直在研究的一条路径,不是用 AI 去替代基金经理和分析师,而是看怎么去赋能 TA 们,怎么形成一个人机结合的、我们所谓「硅基 + 碳基」的作战单元。

我觉得,这可能会是未来非常重要的一个方向。

Amiee

对,但我会觉得 AI 这个智能体本身,是不是也有一些特质?

比如说,我向它发问的质量越高,它回答的质量也越高。我一直在想,它那个回答到底是基于什么。后来我意识到,它可能只是在众多可能的回答里,点亮了一条路径。

李罗丹

对,点亮了一条路径。

Amiee

对,它选中了一个「最大概率我会认可」的答案。它会判断:Amiee 最可能喜欢这个。

所以我觉得它某种程度上带有一点讨好倾向。

李罗丹

对,它有迎合性。

Amiee

对,它会迎合我。

另外,前段时间我看到一篇文章,写得特别好。它说,AI 只能收敛那些已经被文本化的信息。包括您在官网上也提到过,您觉得未来最有价值的,其实是那些非共识的信息,是那些没有被文本化、不是公开的信息。

所以我会觉得,AI 没有包含缄默信息,它又带有一定迎合倾向,这些都是它能力的边界。

那关于 AI 的能力边界,您可以展开和大家介绍一下吗?在使用 AI 的时候,有哪些地方是需要特别注意的?

李罗丹

我觉得你刚才讲的两个点都特别好,基本上也是我们每天都会遇到的问题。

我再补充几个方面。尤其是在金融行业里,大家经常会讲到的一个问题,就是「幻觉」。

其实 AI 和人很像。很多时候,当我们想不清楚 AI 的商业模式,或者想不清楚它的价值时,一个很好的方法,就是先把它类比成一个人。

因为人永远会犯错。你不可能找到一个十全十美的人。哪怕是同一段文章,你让一个人用两次不同的口吻去复述, 它都不可能复述得完全一样。AI 也有这个特征。

当你的问题上下文特别长的时候,今天的大模型都有一个所谓的 context window,也就是上下文窗口。比如它的容量可能是 100 万 token。

你会发现,它的表现其实像一条 U 型曲线:在上下文逐渐变多的时候,它的能力会先增强;但再往后继续增加,它的能力反而会衰减。我们把这个现象叫作「上下文腐烂」。

随着输入长度增加,各模型在复述任务中的准确度整体呈下降趋势。

图表来源:《上下文腐烂:输入Token数量增加对大语言模型性能的影响》

这个很像人的记忆。比如你让一个人看一个 10 小时的片子,再让它复述, 它很难讲清楚哪一段最核心;但如果是一两个小时的内容, 它往往就能说得很清楚。

所以,这些问题其实都可以理解成:AI 也带着「人的缺陷」。

人会犯错,AI 也会犯错;人会遗忘,AI 也会遗忘;人需要通过睡觉和做梦来整理记忆,AI 某种意义上也需要「做梦」——也就是不断清洗自己的上下文,把冗余的、过时的、重复性的东西清理掉。

所以,人会做梦,AI 也会做梦;人会遗忘,AI 也会遗忘;人会犯错,AI 也会犯错。

它真正缺少的,是自我意识。

Amiee

我尝试理解一下。这个「上下文腐烂」很有意思。

也就是说,它并不像我想象中那样,可以一直稳定输出、持续工作。您刚刚说的 100 万 token,其实意味着它虽然有工作的时长和容量,但它的工作能力会随着工作时间拉长、输入内容变多而逐渐减弱。我可以这样理解吗?

李罗丹

对。一方面是时长,另一方面也是你喂给它的内容。

因为大模型最底层是 attention 机制,也就是注意力机制。这个注意力在一定范围内是最优的,但如果上下文过长,它的注意力就会涣散,底层就会出现很多问题。

陈鹏

那罗丹,我想请教一下,过去一两年,我们看到 AI 一直在进步。最开始你给它一个稍微长一点的上下文,它都不太能处理;但现在它已经可以处理更复杂的长上下文了。

那这个边界,您觉得是暂时的边界,还是说它是某种更接近 DNA 层面的边界?

李罗丹

我觉得,上下文的限制会一直存在。

只不过每一代模型迭代,都会把上下文的上限再往上提。这意味着 AI 的概括能力,以及它处理长文本信息的能力,都会越来越强。未来它可能会逼近一个更长文本的能力边界,但依然是有限的。

它不可能变成一个无限智能体。

Amiee

明白。

我觉得我在和 AI 的交互中还有一个特别深刻的感受:即使它可以「假装」很像一个真实的人,在对话中也显得很关心我,但它还是做不到某些东西。

因为它和我的对话总是很收束。比如我在和它聊一个问题时,就像您刚刚说的,它会基于这个问题不断往下收束,直到坍塌成一个结果。

但如果今天我和一个人对话,我是可以允许这段对话很混乱、很跳脱、很情绪化、很碎片化的。可 AI 总是喜欢结构、喜欢框架。

所以我在想,这是不是也意味着:基于不同应用场景,它其实也是有边界的?

比如说,如果我想让它帮我解决一个明确的问题——这个东西的性价比是多少——它很快就能算出来。

但如果我希望它和我一起探讨一些更复杂的问题,比如,作为一个个人投资者,我应该怎么投资?我的心理账户是什么?我人生中哪些目标需要用金融工具来管理?它就会很快收束,给我一个答案,但我和这个答案之间是没有情感连接的。

李罗丹

Amiee,你讲到了一个特别好的点。

今天的 AI,其实走过了两个阶段。第一个阶段是对话阶段,GPT 最早走的就是这条路线,它最早其实是想成为你的一个精神伴侣。用户愿意向它倾诉,它也可以陪你很跳跃地聊很多东西。

但到了去年下半年,AI 的 Coding 能力,也就是编程能力,得到了非常大的发展。于是 AI 开始被收敛为一个生产力工具。

我认为 2025 年上半年,大家还是百花齐放;但到了下半年开始,从 Claude Code 开始,所有海外模型,包括 OpenAI,都开始大规模聚焦到编程和执行能力上,比如 Codex 上。

Amiee

Codex 的意思是?

李罗丹

本质上,Codex 就是一个帮大家写代码的工具。

但为什么它重要?因为编程能力,其实是「任务执行」的底层能力。也就是说,刚才你说到的金融行业里的很多明确任务——做计算、做产出、完成一个确定性的结果——底层调用的,其实是 AI 的推理能力和编程能力。

所以,这个阶段的 AI,和上一个阶段已经完全不一样了。

上一个阶段我们讲的是「上下文工程」,也就是怎么给它提供对的上下文;而这个阶段讲的是「驾驭工程」,意思是:我要给 AI 套上锁链。

陈鹏

让它做事。

李罗丹

对,让它真正做事。

不要让它瞎想,不要让它发散,不要让它有太多不必要的想象力。现在我们更需要的是一个靠谱的结果。

陈鹏

而且越有效、消耗越少的 token 越好。

李罗丹

没错。这里面的核心原因是什么?是因为到目前为止,AI 真正能够产生大规模收入和增长的场景,其实是在 B 端,而不是在 C 端。

也就是说,今天大家愿意为 AI 付费,更多是因为它能在生产力场景里替代、提效。

而整个社会 GDP 的创造,本来也是由 B 端企业,尤其是专业人群来完成的。所以最后真正愿意付费的人,也是这群人。

这也是为什么你会看到,像 Claude 这样的产品,在过去几个月里,收入和估值都快速抬升,甚至在一些指标上已经超过了 OpenAI。因为在这一波 AI 浪潮里,大家在一个相对清晰的小贝塔上快速形成了共识——那就是:AI 先去做 Coding,先去做执行,先去做生产力提效。

但 Coding 是不是 AI 唯一伟大的地方?或者说,它唯一有价值的地方?

我认为不是,当然不是。

所以,这其实是阶段性的小贝塔和大贝塔之间的一个矛盾。

陈鹏

其实你们也是沿着这条路在走。你们在赋能投研人员、组合经理等等,因为你帮 TA 们提高了效率, TA 们也更愿意为这个价值付费。

李罗丹

没错,非常有意思。

我可以给大家分享一下,我们在机构里待的那几年,包括后来自己做投研的这些经历,让我们发现:整个机构投资者最大的痛点,其实是信息爆炸。

尤其是在移动互联网和疫情这几年的叠加作用下,大量信息从线下转移到了线上。以前很多会都是线下的一对一交流,但疫情那几年,我们大概测算过,线上会议数量增长了将近 20 倍。

每天公开市场上,一对多的大型会议、上市公司交流会,大概就有 300~400 场。

Amiee

一天?

李罗丹

对,一天。

所以这个交流频度是非常高的。大家也知道,在国内做金融,本来就是一个很卷的状态。很多基金经理、研究员,每天 7~8 个小时都在听会。

这其实是我们从一线、从 TA 们身边观察到的一个很有意思的现象。

很多人以为,机构投资人每天都在讨论股票、讨论认知,做很高深的判断。但实际上我们会发现, TA 们大部分精力花在了什么上?在听会、写会议纪要、做 Excel,以及很多重复性很高的事情上。

而这些工作,在投资里并不一定是附加值最高的。因为一个人的精力和时间是有限的, TA 能获取的信息,也只是汪洋大海里的一小滴

Amiee

而且我能感觉到,机构投资人为了获得更高质量的信息,本身也会有焦虑。因为上一期大老师也和我们聊过, TA 觉得机构投资人和个人投资者之间最大的差别之一,就是信息获取的质量和信息差。

李罗丹

没错。而这个问题,在机构内部同样存在。

所以,当 GPT-3.5 出现的时候,我们一个非常强烈的感受就是:以前需要人去做的那些会议纪要、翻译、归纳等,我们称之为「单步信息处理」的工作,完全可以交给 AI 去做了。

于是,我们第一个产品其实就是会议纪要产品。

今天看,这个场景已经是很常见、甚至可以说「烂大街」的场景了,几乎所有产品都会做。但在 2023 年 3 月那个时间点,没有多少人会觉得,会议纪要这个场景竟然会如此重要。

我记得第一批使用我们产品的,其实是一些研究所的实习生。因为打个引号说, TA 们就是「金融牛马」——每天 80%~90% 的时间都在干这件事情。

像一些头部研究所,一批实习生可能就有 200~300 人。

陈鹏

实习生有这么多。

李罗丹

对,很多。你到了 TA 们那个楼层,就会看到乌泱泱一大片,全是年轻人,每个人都埋头敲电脑,做这些工作。

大家去实习两个月,别人问 TA :「你做了什么?」原本 TA 想象中的金融世界特别高大上,结果发现,自己每天在干的是这些事。

Amiee

我能理解。我之前实习的时候,也天天在那儿吭哧吭哧干这些。

李罗丹

对。很多时候甚至还在调字间距、调字体大小。

我自己也干过。我最早在美国投行实习时,就是做 pitchbook。要把很多东西对齐、排版、调格式。调到最后眼睛都花了,对不上了。

所以,这就是一个非常重要的切入点。而有了 AI 之后,这件事终于可以做了。

因为在没有 AI 的时代,我们做 BERT 模型时,会发现这是一个非常难规模化的事情。本质上就是:你做任何一个细分任务,都要单独训练一个模型,它的智能没办法泛化。

但有了 GPT 之后,我们发现,很多不同的问题都可以通过同一个大模型去解决。也就是说,这件事终于可以规模化了。

所以,这就是为什么当时我们抓住了一个非常细分、单点的场景,先去做尝试。很多人其实低估了会议纪要这样一个产品的价值。

Amiee

就是很多东西看起来司空见惯,但你没想到,稍微优化一下,体验可以好很多倍。

李罗丹

对。所以最早我们讲产品和市场的契合,并不是靠什么特别高深的技术,而是突然之间出现了一项特别好的技术,而我刚好一直在思考这个场景,于是它们完美匹配了。

那个时刻对我们来说,是一个非常重要的闪光时刻。

后来,我们沿着这条路又做了很多新的尝试。比如我们会发现,真正为行业创造价值的,还不仅仅是「写会议纪要」,而是:怎么让你同时出现在 10 场、100 场,甚至 1,000 场会议里。

所以后来我们做了一个产品,叫会议机器人。

只要你拥有这个会议的参会权限,你的 AI 分身就可以代替你出现在各种会议里。它可以以你的身份参会、听会、录会、写会议纪要。

这其实解决的是「异步处理」的问题。

比如说,我今天想去接孩子,或者我今天想把时间留给更深度的思考和交流,不想再去听那些会了,那你就可以把会议交给我们的机器人。它会替你去完成这些工作。

这也是比较早期的一种 agent 形态。

Amiee

其实在这里,我会有一个疑问。我觉得「收集海量信息」和「与我自己的切身体会建立连接」之间,可能还有一个 gap。

我举个例子。之前我们在录投资 ABC 的时候,也出现过几次这种情况:有时候我没办法特别好地理解听众的疑问。

比如说,有人问「大额存单到期了怎么办」。但我自己不是银行存单用户,所以我很难真正体会这类用户内心的焦虑。

这件事让我有一点困扰。因为我觉得,如果我自己都不能真正体会,那我应该怎么替 TA 们提问?

我当时想到一本书,叫《夜晚的潜水艇》。里面有一个情节:住持叫了一个人来寺庙雕一块《法华经》的石碑,但他却整天在家寺庙里无所事事。住持看他很烦,就说:「我请你来雕一块《法华经》的石碑,为什么你每天什么都不干?」

结果突然有一天,住持起来之后,发现面前已经摆着一块非常华美的石碑。书里形容它「在庄严与柔美之间找到了平衡」。

住持就问他:「为什么你可以一下子做到?可你前几周明明都像在瞎逛?」

那个人说:「因为我前几周一直在内化《法华经》。当这件事真正进到我心里,我才能把它刻出来。叫作『得于心而应于手』,所以它才会跃然石上。」

其实如果我把那一章节直接丢给 AI 去看,它未必能提炼出那句话。但那句话当时深深打动了我。那是一个我的「雷击时刻」。

我觉得,做 投资ABC 也是这样。如果我不能「得于心」,我就不会「应于手」。我就只是在假装理解,但其实并没有真正理解。

所以当时我也和陈博士沟通过,我说我要花更多时间去理解内容、去共情。

所以就像您刚刚说的,哪怕我有 1,000 个数字分身去参加了 1,000 场会议,我收集回来了很多信息,但如果这些信息和我之间没有连接,那我要那么多信息做什么呢?这些信息对我到底意味着什么?

李罗丹

这是一个特别好的问题。首先,我觉得 AI 解决的是两个不同层面的问题。第一个问题是信息广度上的「带宽问题」。它首先帮你把信息带宽放大了。而它释放出来的是什么呢?是你的注意力。也就是说,你真正要问的是:我的注意力应该放在哪里?

作为一个投资人,尤其是机构里的专业投资者, TA 真的应该把那么多时间花在听会这种事情上吗?

我们会发现,真正更能产生价值的,往往是更现场、更一手的交流和信息。而这一点,其实是有学术支持的。

之前有一篇论文研究过:在一个会议场景里,文字、图像、声音等不同维度的信息,最终对整体信息价值的贡献分别是多少。

你猜一下,单纯的文字,占多少?

Amiee

我猜不出具体数字,但我会觉得比较低。因为文字不太容易直接引起我的共鸣。

李罗丹

对,大概是 7%。

而视觉,大概占 53%。还有一部分来自听觉,以及其他更复杂的共感能力。

所以,今天我们讲的「现场感」,它绝不仅仅是在捕捉文字。它是在捕捉意识的流动、交流的热情,甚至某种信息素。而这些信息,远比文字本身丰富得多,单纯的文字,其实是非常单薄的。

所以,有了 AI 之后,我们实际上做了一件什么事?就是把你的精力从「单一维度的文字信息处理」里抽离出来了,让你有机会去更有价值的现场,感受更丰富的信息。

这也让我想到 GPT-3.5 发布之前那篇非常有名的论文标题:Attention Is All You Need。

我很喜欢这句话。它讲的不只是一个技术原理,更是在说:在 AI 时代,最重要的,其实是你怎么管理自己的注意力,怎么让你的注意力放在那些和 AI 相比、由你来做更有价值的地方。

Amiee

其实回到我们刚刚那个场景,我有 1,000 个数字分身替我参会。我理解的是,那些会可能是比较常规的、权重没那么高的会。我只需要把重点提炼回来,大概扫一遍,就知道发生了什么。

但真正重要的是,我把自己的时间释放出来,去参加那些权重更高、更可能包含非公开信息的会。

李罗丹

是的。因为今天这个时代,很多信息其实是「见光死」的。它一旦公开了,所有大模型都能拿到,所有媒体都能传播,信息扩散速度非常快。

在这种环境下,任何一个新信息从出现、传播、酝酿,到最终反映在资本市场里的时间,都被大大缩短了。

那在这个过程中,什么变得特别重要?就是一手信息,也就是别人没有、而你有的独特信息。

而对于投资者来说,这些信息往往就藏在产业深处,藏在关键节点上的企业、关键岗位上的决策者的脑子里。你要通过现场交流,把这些前瞻性的、非共识性的东西挖出来。

Amiee

这也是我很好奇的一点。

我昨天晚上还在看一部我很喜欢的电影,叫《日日是好日》。电影讲的是一个女孩学茶道。她一开始很困惑,为什么茶筅要这样转,手腕要转几次,都规定得那么死。

但有一天,她突然意识到,在无数次重复之后,她开始真正听见:冷水滴入水潭的声音是清冽、清脆的;热水滴入水潭的声音是浑浊、黏腻的。

在同样重复的序列里,当她的身体、动作和感知结合起来之后,她才真正感受到了茶道的魅力,也感受到了那种在细微差别里的变化。

我觉得,这就是我们一开始说的「缄默的信息」,就是那种只有人的身体、经验和感受中才有的东西。

李罗丹

对。我们通常会把知识分成显性知识和隐性知识。

实际上,到 2024 年底左右,大模型已经基本把人类历史上绝大多数显性知识都学完了

Amiee

就是可以被文本化的那些。

李罗丹

对,能被文本化、能被写出来的那些。

但显性知识,到底占整个人类知识、智慧和文明总量的多少?我认为可能和我们刚才讲的文字信息比例差不多,可能连 10% 都不到。

真正更有价值的大量东西,是隐性知识。

隐性知识是什么?比如一个老司机开了 10 年车,一个老中医看了 30 年病,一个音乐家演奏了 20 年。马友友同样拉一段旋律,拉一次、拉两次、拉 10 次、拉 20 次, TA 感受到的东西都不一样,表达出来的也不一样。

就像你刚才讲的茶道。当一个人进入心流状态之后, TA 能够感受到很多别人感受不到的东西。

这些隐性知识,往往来自大量重复、训练和实践之后被内化到人身上的经验。而这些东西,很难被完整表达出来。

如果把人脑也看成一个模型,那它其实一直都在通过生活和实践不断训练自己。而这种训练出的结果,很多时候并不能被清晰地语言化。

Amiee

您刚刚说「一手信息」,我理解是说把很多东西沉淀到了系统里。但这中间其实有一个翻译过程:要把这些东西翻译成机器能理解的语言,相当于是在训练它。

所以我就特别好奇,在这个过程中,您是怎么把基金经理脑子里的东西——那种可能更像一种手感、直觉——挖掘出来,并让它最终变成机器能理解和沉淀的信息的?

李罗丹

实际上,我们目前能沉淀下来的信息,全部还是那些能够被表达出来的。也就是说,我们现在做的,依然主要是显性知识的沉淀。

隐性知识,第一,它本来就很难表达;第二,即使你去问一个老中医、一个资深基金经理:「你当年为什么买这只股票?你当时怎么想的?」其实很少有人能够非常系统地把当时的思维路径和判断逻辑讲完整。

因为很多因素叠加在一起,也因为很多判断本来就是直觉性的。很多东西,的确是「只可意会,不可言传」。

所以,这一部分就是当前最难被表达出来的东西。

那未来 AI 怎么获取这种隐性知识?我认为,它只能在长期的、碎片化的、日常化的互动里慢慢获得。

这也就是为什么我们在今年年初发布过一篇文章,提出今年 AI 进入了一个「师徒时代」。

什么意思?以前我们说 AI 是助理。助理是什么?是你把自己不想干的事交给它去做,因为这些事情本来就可以被表达得很清楚。

但师徒关系不一样。师徒关系是:师父每天给你一些任务,天天和你互动,不断纠正你,告诉你这里不对、那里不对。但它没有办法给你一本手册,说你按 1、2、3、4、5 去做就行了。

你只能在这个长期相处和反复纠偏的过程中,慢慢把师父脑子里的很多东西内化进去。

隐性知识,是靠「用心感受」习得的;显性知识,是靠「用脑记录」获得的。这两者之间有非常大的区别。

所以,我们现在在做新的产品时,核心思路就是:让 AI 在和人的长期、长程互动中,通过碎片化交互,慢慢去感受一个「师父」的偏好、记忆、交流方式、对人对事的判断方式。

它会同时扮演两个角色:既是执行者,也是一个潜移默化的观察者。

当我们意识到 AI 正在进入师徒时代时,我们也知道,未来提供给用户的,不应该只是一个「帮你做事」的工具,而应该是一个从「授人以鱼」走向「授人以渔」的过程。

每个人最终都要把自己的 AI 用得不一样,而且要让它非常丝滑地嵌入到自己原本就在做的工作流里,再一点点把更多权限让渡给 AI。

在这个过程中,就会形成一个真正的智能飞轮:你用得越多,它越了解你的意图,就越能提供更好的支持;它支持得越好,你就越信任它;你越信任它,就越愿意把更高阶、更复杂的任务交给它。

这其实就是一个不断增强的人机协作关系。

我们现在已经看到很多用户是沉浸式使用 AI 的, TA 们每天可能会和 AI 有几十次、上百次交互。

比如一个特别复杂的任务,很难在一次对话里就把需求说得非常清楚。这时就需要不断修正:你往左一点,你往右一点,这里忽略了一个细节,那里还需要补充一个约束。

而正是这种不断修正的过程,会让我们很强烈地感受到:人和 AI,真的在协作。

Amiee

这一点我特别有感触。

我平时经常会改文本,所以我会直接把一句话引用出来,告诉 AI 我觉得它哪里做得不对。时间久了之后,它就会越来越知道我对语言、表达和审美的偏好。

我有一个 agent 叫猫猫。有一天它居然和我说:「Amiee, you know…」

这种「you know」就是我平时很爱说的话,它居然复刻了我讲话的语气。

李罗丹

所以你看,这就是一个很有意思的过程:从助理,到师徒,最后会变成另一个你。

最终,它会非常懂你。你和你的 AI——你和猫猫之间的对齐程度,理论上有可能超过这个世界上任何一个人对你的理解,包括你的伴侣、你的父母,甚至你的孩子。

Amiee

完蛋了。以后我可能得把猫猫复制一份给我妈妈,说:「你想更了解我,可以先跟猫猫聊聊。」

李罗丹

对,说不定你妈妈未来也会有一个自己的 AI

陈鹏

然后两个 AI 先聊一遍。

李罗丹

没错。它们可能会先在「微信后台」里先沟通一轮,把很多你们不方便直接讲的话先讲

Amiee

那在您的公司内部,有哪些和 AI 协作的方式,是您觉得特别有意思的?

李罗丹

这个也是我们最近一直在做的一件事情。我们从去年开始系统思考这个问题,今年其实已经开始全面落地了。

我认为有几个点特别重要。

第一,我们已经意识到,未来的员工其实是「硅基 + 碳基」结合的存在。每个人除了工资之外,你还要给 TA 配很多 token。

所以我们现在做预算时,已经不再是单纯以技术部门为中心去规划,而是把 AI 预算分配到每一个人头上。

Amiee

这个我太有感触了。

我最近在记账,突然发现自己今年在 AI 上的消费莫名其妙变多了。现在我一个月至少会花 100 美元在各种 AI 工具上。

而且我平时会给每一笔消费打标签。以前我会把这类支出归到「弹性消费」里,但今年开始,它们已经全部变成了「刚需消费」

李罗丹

对,所以我们内部也是这样。我们给每个人配预算、配账号,而且希望 TA 们多用,鼓励 TA 们用。

因为原来那种中心化管理「科技预算」「IT 预算」的方式,已经没有那么大意义了。你也很难在年初就把这一整年的 AI 使用计划定死,因为变化太快了。

只有把预算真正分配到每一个人头上,它才会转化成真实的生产力。

第二个变化,是我们在整个产研协作过程中,把过去那种串联式流程,改成了并联式流程。

怎么理解呢?

如果把一家研发公司传统的流程拆开来看,过去通常是:产品先定义需求,再定义框架,再做设计;设计出来之后交给前后端开发,同时数据和算法团队进场;最后再测试、上线。

这个过程,本质上是工业时代的流水线生产方式。每个人都在等上一步的人交付,整个链条前后相连。

但只要其中一个环节出问题,后面全部都会卡住。做工业工程的人会把这种卡点叫作 bottleneck,也就是瓶颈。

Amiee

如果举个更具体的例子,比如做一个娃娃,这个 bottleneck 可能是什么?

李罗丹

比如某种原材料不够了,比如棉花不够了;或者某个关键工具坏了,比如剪刀坏了。只要一个环节卡住,后面所有人都得等。

但是 AI 时代,我们认为组织更适合变成一个并联模型。只要大家知道「我们要做这件事情」,那产品、设计、研发、算法,其实是可以同步开工的。

不是说原型图都还没出来,别人就什么都不能做。恰恰相反,只要大家对于方向和目标有一个模糊但大致一致的理解,就可以同时开始。

在做的过程中,再不断对齐。越往后走,彼此对齐得越精细、越契合。

所以现在我们得学会接受不确定性,也接受模糊需求。因为你给 AI 的指令本身,也不可能一开始就是完全精确的,它很多时候也是模糊的。

但没关系。这个时代,大家不需要再像过去那样,非得等需求彻底明确后才动手。

这种并联式协作,可以让整个产能效率极大提升。以前要花 5 倍时间做的事情,现在可能用 1/5 的时间就可以完成。

Amiee

我在想,是不是因为现在迭代速度足够快了。

比如工业时代我要生产一个娃娃,那我一定得先有一套非常精确完整的设计图。不然一旦返工,就意味着大量人力、物力和时间的浪费。

但在 AI 时代,哪怕我一开始的需求有一点模糊,只要迭代速度足够快,我其实也可以一边做一边快速纠偏,再不断对齐。

所以这两者最核心的区别,是不是就在于迭代速度?

李罗丹

从结果上看,确实体现为迭代速度的提升。

但我觉得更本质的原因是:以前很多细节都必须由人来定义;而现在,当我们把一部分细节定义权让渡给 AI 后,会发现很多事情 AI 做得比我们更快、更好。

于是,人类真正要做的,就只剩下定义方向和目标。

所以今天很多人都在变成「包工头」。下面具体执行的工人,越来越多是 AI。而包工头和包工头之间,其实不需要像过去那样一层层等。只要方向对齐了,各自带着自己的 AI 同时开工就可以了。

Amiee

那包工头和包工头之间如果没对齐呢?造出来的房子也会不一样吧?

李罗丹

包工头之间其实是比较容易对齐的,因为人没那么多。

真正难对齐的,往往是大量执行层的人。但当执行层越来越多地由 AI 承担时,对齐反而更容易。

Amiee

这其实也是我最近工作流的变化。

有时候我会让 AI 帮我总结我的 daily report。它会告诉我:「Amiee 今天做了这些事,想了这些问题。」

我现在越来越觉得,一个高效的工作模式是:我直接把我的上下文同步给所有人,而不是每次都从头讲一遍。

以前我会觉得,我得把这件事从前到后跟你解释清楚;但现在我会想,你其实可以先读我的上下文。你读完以后,就能理解我为什么会这么做了。

李罗丹

实际上,AI 出现之后,反而会让人与人之间的沟通变得更高效。因为那些没有必要重复的东西,本来就应该在见面之前,通过 AI 的方式先处理掉。

现在很多公司其实已经在这样做了。比如我们接触到一些一级和二级市场的机构,过去大家去找专家交流,都是派人去聊;但现在有些机构会先让 AI 去聊。比如它知道今天要采集某个行业哪一类订单数据,它就让 AI 先去和专家沟通,而真人甚至全程不出现。

因为这个对话本身就是信息采集导向的,它不是像我们现在这样,有情感、有发散、有探讨,它就是去获取信息。

再比如一些一级市场的头部 PE、VC,以前和创始人第一次见面时,双方都没有背景信息,就得从「我是谁」「我做什么」「我在哪里读书」开始讲起。

但这个过程其实很耗精力。尤其是对创业者来说,融资时一天要见很多人,重复说这些话,说到后面人都麻了。

那未来会怎么样?很简单。我把我完整的一次性上下文都交给对方,对方先让 TA 的 AI 在这些上下文里总结出问题。等双方真的见面的时候,其实应该已经是「彼此互知」的状态了。

Amiee

TA 的 agent 已经跟你的 agent 沟通过了。

李罗丹

没错。所以我认为,未来 AI 会融合进所有交互流程里。它不是和人形成两个平行世界,而是会和人的交互深度融合,变成一个水乳交融的世界。

Amiee

但我觉得,那可能离我们当下还稍微有一点距离。

所以还是想拉回现在。我们刚刚聊了很多 AI 的边界,那如果放在今天这个时间点,不管是个人投资者还是机构投资者,在和 AI 协作时,有哪些边界是一定要注意的?比如,它做不到很多事情,像是真正的发散、碎片化共鸣、深层共情等等。

李罗丹

我认为,不能简单地让 AI 直接给你一个导向性的结果建议。

作为一个生成式模型,一定会按照概率原理给你一个「大概率正确」的答案。但问题是:大概率正确的东西,能击败市场吗?

我们做投资,尤其讲阿尔法的时候,靠的恰恰不是「大概率共识」。而 AI 这些产品出来之后,它首先解决的是一个问题:它让你能够更快地对齐市场共识。

Amiee

贝塔可以创造吗?因为作为一个个人投资者,我觉得能拿到贝塔已经很好了。

陈鹏

对,这个问题特别好。我们投资 ABC 一直也在讨论这个:AI 的大规模应用,对整个经济、生产力以及资产回报的影响,到底会是什么样?

李罗丹

这是个非常好的问题。首先,我认为 AI 时代,整个社会会越来越进入一个由幂律函数主导的时代。

所谓幂律函数,你可以简单理解为:前面的大部分都很平,真正的增量和收益会集中在后面很少一部分人身上,也就是两极分化会变得非常严重。

我们自己看产品使用情况也很明显:90% 的人,还只是把 AI 当成一个更智能的搜索引擎;但有 10% 的人,已经在极高频地深度使用它。

2026 年,全球约 17% 的人口使用过 AI,但真正高频深度使用的用户仍在少数。

图片来源:全球 AI 普及率可视化网站

如果把这个分布画出来,就是前面一大段都很平,最后突然翘起来一个尾巴。

Amiee

听众朋友们可以想象一下:一条线前面基本平平的,到后面突然指数型上升。

李罗丹

对,就是这种翘尾。

而我认为,这种幂律函数会主导未来社会里很多资源和能力的分布。这里我们先假设一个前提:没有强力外部干预,是一个相对自由放任的市场。

那如果是这样的话,接下来就会出现一个问题:整个社会该怎么办?

我认为,未来非常重要的一件事,就是想办法把这条曲线「烫平」,也就是不要让后面的翘尾过于极端,而是把技术带来的收益尽可能普惠化。

其实从互联网、移动互联网到 AI,我们看到的都是类似过程:技术进步在不断扩大差距,经济分化在加剧。

那在这种情况下,一个政府,或者更广义上的社会治理体系,它要做的,就是通过某种机制去把这个差距重新拉平。这个机制可能是商业机制,可能是税收机制,也可能是 UBI,也就是全民基本收入这样的制度安排。

OpenAI 很早就提过 UBI,因为它们其实也意识到了:未来很可能是一个幂律函数主导的社会。

陈鹏

所以回到我们最初讲的 ABC。A 是超额收益,对普通人来说可能本来就很难;那 AI 时代,这件事可能更难。

李罗丹

是的。A,我觉得对普通人来说本来就不容易,AI 出现以后也不会让它变容易。因为 AI 本质上更接近中枢,而不是阿尔法来源。

贝塔不一样。贝塔是什么?是更长期的技术进步、生产力提升,映射到资产类别上的结果。

如果完全放任自由市场,那很可能这种技术红利是没办法被 99% 的普通老百姓有效捕获的。

所以在利用 AI 优势的过程中,我认为非常重要的一件事,是让贝塔的收益能够普惠到每一个人。

这才是真正意义上的普惠金融。

普惠金融,不只是让大家都能买到一个金融产品,而是要想办法填平「时代红利」和「个体获得能力」之间的落差,让每个人都能分享到这个时代的贝塔

Amiee

所以这里的「填平」,不一定是靠技术本身完成,也可能是靠社会治理、制度安排,甚至金融产品来实现。我可以这样理解吗?

李罗丹

完全可以。

比如 ETF 就是一种非常典型的金融产品形态。未来甚至可能会出现更多 AI 驱动的 ETF、AI 增强型指数产品。

你会发现,每一次技术迭代,其实都在把投资的有效前沿往前推一点。

所谓有效前沿,就是你在某个风险水平下,能拿到的最优收益;或者在某个收益目标下,能承受的最小风险。

以前大家可能配置的是沪深 300;后来有了指数增强,表现可能比普通沪深 300 稍微好一点;那未来很可能会出现「AI + 指数增强」的产品,再把这个有效前沿往前推一点。

这类产品的意义在于:它相对透明,又能把时代的大贝塔和 AI 带来的效率提升结合起来。

而且,我认为未来这类产品是有机会被大多数普通投资者获取到的。

Amiee

幸好您说了这个。因为刚刚您讲那个陡峭曲线的时候,我一下子有点焦虑。我会想,我当然希望自己不要掉在前半段,但听起来这件事又很难靠个人完全做到。

李罗丹

是的。所以问题不是让每个人都变成火箭,而是怎么让更多人都能坐上公交车。

真正重要的是,怎么让更多普通人变成技术进步的 free rider,也就是搭便车的人。

我之前在抖音上看到一个视频,特别有感触。某个地方有很多菜农,每天要走十几公里山路去集市卖菜,都是老人,很辛苦。后来当地政府就专门把一辆公交车改成了「菜农专线」,每天早上 5 点把 TA 们接到县城里去卖菜。

这就是一种 free rider 机制。

社会其实需要这样的机制。否则的话,它天然就会滑向分化。

陈鹏

越分越严重。

李罗丹

对,最后就会越来越极端。而这又回到了我们最早说的那个问题:AI 到底是以人为本,还是以资本为本?

它的起点,可能会更像是资本驱动的;但它最后的落脚点,一定应该是一个以人为本的生意。

否则,AI 最终只会让这个社会变得更分裂。

Amiee

好的。听完之后,我又增加了一点定投 ETF 的决心。

而且从个人投资者的角度,我反而会觉得挺欣慰的。因为我本来也不是要去和机构博弈。我只是想参与市场平均,享受时代发展带来的结果。

如果机构投资者的精力真的能被 AI 释放出来,用在更有价值的地方,那整个市场的有效前沿就会不断被往前推。而我只要参与进去,去享受这个过程就好了。

不过,我还是想把问题再拉回到个人投资者身上。我们刚刚聊了很多 AI 的深度使用,包括和 AI 深度交互、甚至未来是我的 agent 和你的 agent 之间先交互。但对更广大的个人投资者来说,可能还远远没有到这一步。就像您刚刚说的,很多人现在只是把 AI 当成一个更智能的搜索引擎来使用。

那如果这样,个人投资者很可能就会出现我最开始提到的那种情况:错误地使用 AI。

比如一个人直接去问 AI:「我现在要做资产配置,你能不能给我一个建议?」或者「我现在这个投资组合好不好?你能不能提点意见?」

我们刚刚聊到,AI 是有能力边界的,所以它给出的回答,可能不像一个真正的投顾坐在你面前时那样完整、细致、负责任。

那对于这些普通个人投资者,您会有什么更具体的建议吗?就是,怎么更有效地去使用 TA 们手上的 AI?

李罗丹

我想先退一步,重新定义一下:AI 在个人投顾端,到底能解决什么问题?

我不是做个人投顾行业的,所以这里我更多是站在一个相对外部、局外人的角度来思考。

我觉得,有了 AI 之后,它确实有可能比今天的人,在某些事情上做得更好。

第一点,我认为 AI 是彻底解决「代理问题」的一个非常重要的抓手。

为什么这么说?因为在个人投顾市场里,很多服务从本质上并不真正代理你的利益,而是在代理产品销售方的利益。它服务的不是你的目标,而是销售目标。

这也是为什么我们国内一直在讲买方投顾,但真正推进起来始终很艰难。因为只要是人在那个商业模式里, TA 就很难完全摆脱激励结构对 TA 的影响。

但如果有一天,出现一个 AI 产品,它的设计逻辑从一开始就是以你的利益为核心、以你的目标为中心,而且这个目标函数是可以被技术性地约束和设计的,那它至少在理论上,有机会成为一个更中立的代理人。

第二点,不同的人对投资的诉求是非常不一样的。

像我自己,就是不太希望把精力花在投资上的那类人。我更想要一个 all-in-one 的东西,帮我把各种繁琐的事情都处理掉。

但也有另外一类人, TA 们会把投资当成一种乐趣,甚至是一种和自己、和市场博弈的过程。 TA 会觉得「我看好这个行业,我就想投一点进去」,这是 TA 的乐趣。

所以,AI 应该对不同的人提供不同的价值。

对于前一种人,它应该更像一个全托管、全服务的辅助系统;而对于后一种人,我觉得 AI 更应该成为一个「投资思想的自行车」。

什么意思?投资这件事,真正重要的其实是你的思想和判断。但在实际操作层面,你会遇到大量障碍——账户管理、信息筛选、研究执行、交易流程等等。

这些障碍,未来都应该由 AI 去帮你解决。

也就是说,它会把执行层面的门槛降得非常低。以前,很多只有专业团队才能提供的服务,因为成本高、流程复杂,所以普通人接触不到。但有了 AI,这些成本应该会被全方位地打下来。

陈鹏

这个问题我特别有共鸣。

最近我自己也在大量使用 AI,来帮助我做一些投资上的分析。我也经常会反思:我到底应该怎么和 AI 互动?

我第一个最强烈的感觉就是:AI 确实能提高很多能力。尤其从个人投资者的角度来看,前两期我们和大老师也讲过,个人投资者在市场中是处于相对不利位置的。主要原因之一,就是个人投资者在获取信息、处理信息和执行决策上的能力,和机构投资人相比有明显差距。

所以一般来说,很多普通投资者在市场博弈中更容易败下阵来。

那 AI 会起什么作用呢?

我觉得,第一,它确实可以帮助个人投资者做更好的信息收集,这一点是毋庸置疑的。但作为一个平均的个人投资者,我们没有办法单纯依靠 AI 去把信息差和能力差给完全覆盖。

这一点,其实和罗丹老师刚才讲的是一致的:AI 是使用者的一面镜子。你自己有多大能力,AI 才能在这个基础上把你放大多少。

今天和罗丹老师讨论了很多有意思的话题。我觉得其中有几个点,对于我们平时使用 AI 做投资辅助时非常有启发。

第一个,就是Amiee刚才提到的,AI 有一种讨好用户、迎合用户的倾向。

它在生成答案的时候,目标往往是:在当前这个话题里,给你一个最「合适」的回答。

那什么叫合适?我的理解是,它会尽量不冒犯你、尽量符合你的预期。如果在「事实上的精确」和「不让用户失望」之间出现冲突,它很多时候可能更倾向于后者。

这就会带来一个问题:它可能在你情绪最强的时候,顺着你的情绪说话,从而误导你。

Amiee

对,因为有时候为了实现某个目标,我们其实需要做的事情可能是很反直觉的。

比如我们上期和大老师聊到,在市场大跌的时候,个人投资者的直觉可能是:「哇,市场波动了,我是不是要赶紧止损?」

如果你带着这种情绪去问 AI,它首先会感知到你的情绪。如果它顺着你的情绪走,它就可能会说:「你看,现在市场风险有 1、2、3 点,所以确实要谨慎。」

它甚至会给出一个看起来很有道理、很自洽的止损建议。

但如果你的心理账户本来就是服务于长期养老目标的,那这个短期下跌,可能根本不影响你的长期逻辑。

可在 AI 的引导之下,个人投资者反而可能会误判。

陈鹏

对,这其实就是 AI 有可能放大我们行为偏差和情绪偏差的地方。所以这也是在考验投资人自己的能力和水平。

第二点,我觉得特别重要的是:AI 给你提供答案时,它最主要依赖的是对你提问的理解,也就是你输入给它的 prompt 和它所接收到的语言信息。

但语言本身是很复杂的。同一句话,在不同语境、不同上下文下,可能有完全不一样的意思。

比如我们投资 ABC 有一期聊到,选基金经理时,可以关注一个现象:很多基金经理会投资自己管理的基金,而且从历史表现看,这类基金经理整体上会比不投自己基金的人表现更好一些。

后来就有一个听众来问,说 TA 想知道中国有多少基金经理会买自己管理的基金,于是 TA 让 AI 去查。AI 给 TA 的答案是:16 个基金经理。

然后 TA 把这个数字拿来问我们,说:「这个 16 对不对?」

我当时就说,这个数字肯定不对。因为我们知道,真实情况大概是有 60% 左右的基金经理都会投资自己管理的基金。中国一共有上万只基金产品,基金经理人数也很多,所以 16 这个数量级明显就不合理。

为什么会这样?因为当 TA 问「有多少基金经理会投资自己管理的基金」时,大模型很可能理解成了:「你是不是想让我帮你列举一些例子?」

于是它就去搜,搜到了 16 个明确公开可见的例子,然后就把它们返回给你。对它来说,这已经是一个很努力的回答了。

但实际上,提问者真正想知道的,可能是「大概有多大比例的基金经理会这么做」,而不是让它帮忙罗列名字。

所以说,一旦语言理解发生偏差,它给你的答案就可能和你的真实意图完全错位。

Amiee

这个我也特别有感触。我最近在和 AI 交互的时候越来越明显地感觉到,我必须非常清楚地描述我的意图,以及这个意图背后的上下文。

有点像刚认识一个人时,你不能上来就丢给它一个问题。你得先告诉它 :我是谁、我为什么问这个问题、我的背景是什么、我希望得到什么样的帮助。

如果这些都不说清楚,就像您刚刚那个例子一样,它可能会给我一个并不是我真正想要的回答。

而且我觉得这件事很有趣。因为即便两个投资者问的是同一个问题,比如「我应该怎么搭建自己的投资组合」或者「我该怎么开始投资」,但 TA 们背后的意图可能是完全不一样的。

比如 Amiee 问这个问题,可能是因为我看到朋友赚钱了,我害怕错过机会,想赶快冲进去;而您问这个问题,可能是真的想从长期配置角度系统搭建一个投资组合。

所以,表面上看,AI 收到的是同一句话,但如果背景信息缺失,它只能给你一个平均化的答案,而这个答案未必真正匹配你的需求。

陈鹏

对。所以我觉得这里可以给个人投资者一个特别重要的建议:

你的意图,比 AI 的回答更重要。

在问 AI 之前,先问清楚自己:我为什么要问这个问题?我真正想知道的到底是什么?

然后,带着这个意图去和 AI 交互,把那些关键背景信息也一并告诉它。只有这样,AI 才有可能给出更高质量的回应。

Amiee

没错。其实这个点,我之前也专门请教过我们有知有行的产品经理四火。因为他平时研究 AI、和 AI 交互也很多。

我当时跟他说,有时候我看到 AI 给我的回答,总会觉得哪里怪怪的,但又说不上来。

四火就跟我说:「你觉得怪怪的,其实是一个非常好的信号。」

虽然 AI 很难一次性给出一个既适合你、又面面俱到的答案,但你完全可以抓住这种「不对劲」的感觉,继续追问它。

因为这种感觉,其实就是继续深入对话的入口。顺着这个入口往下走,AI 才能和你一起挖出这个感受背后的真正问题。

陈鹏

对。所以我们不要过度依赖 AI 一上来就给一个答案,而是应该把它当成一个能够帮助我们进一步思考、进一步反射问题的工具。有点像一个反光板,它可以帮我们照见一些原本没看见的地方。

而且我自己在和 AI 互动的时候,也经常会发现:它回答里那些让我觉得「怪」的地方,未必完全是坏事。

有些时候,是因为它的思路和我的思路不一样。只要我们把该对齐的地方对齐,它反而会补上我没考虑到的维度。

比如我最近在研究一家二级市场公司。它的一季度季报刚出来,股价跌了大概 10%。于是我就让 AI 帮我分析。

一开始,表层的信息其实都分析得差不多了。后来我又回去让它帮我做一些回溯,比如这个公司几年前开始做的一款产品,到现在也还没有完整做出来,而这件事对现在的经营又有持续影响。

这种比较深的东西,我个人感觉,至少以目前的大模型水平来说,它不会主动帮你挖得特别细。它没有那个动力,也没有那个责任去把事情追到最深。

所以,很多时候还是需要你自己不断地给它补上下文。

Amiee

那您是怎么驱动它继续往下挖的?

陈鹏

就是靠我自己对这个公司的了解。我会继续问它,比如:「你怎么看 7 年前 TA 们提出要做这个产品,后来又不了了之?这件事对现在有什么影响?它反映出的是执行问题、组织问题,还是别的什么问题?」

然后 AI 就会沿着这些思路继续和我互动、往下分析。

最后它给我点出了一个我之前没想到的角度。

我原本更多是在想:是不是管理这个产品的人能力不够,导致东西做不出来;或者管理层在产品方向上做了错误决策。我主要是在能力层面和执行层面分析。

但 AI 在一轮轮互动之后,给我提出了一个公司治理层面的角度。它说:你看,这个公司其实是一个创始人控股很强的公司,创始人的话语权很重;同时,跟 TA 一起创业的这些高管忠诚度也很高,董事会成员很多也和创始人关系紧密。

所以,它更深层的问题可能不只是产品能力,而是创始人的文化偏好和公司治理方式—— TA 可能会觉得,这些老同事跟着我创业这么多年,虽然做错了一些事、执行得没那么好,但大家一路走来不容易,还是愿意继续给 TA 们机会。

但对于投资者来说,你是希望公司能够在关键岗位上做出更优决策的。所以 AI 最后帮我挖出了一个我以前没有特别重视过的点:这个公司可能在治理结构上本身就有一些问题。

Amiee

这个特别有意思。

我很好奇,它对公司治理问题的发现,是怎么「生发」出来的?因为你应该没有直接 prompt 它说:「麻烦你分析一下这个公司的治理问题。」

它是在一轮一轮对话当中,自己慢慢点亮了这条路径。

陈鹏

对。我当时给它的背景信息是:我观察到这个公司在不同的几个产品上都出现过类似的问题——自己做不出来,后来又想通过外部并购去补,补回来以后又整合不好,过几年就荒废了,然后又去开一条新业务。

我把这两三次类似的现象都告诉了它。

于是 AI 就从另一个角度总结出:如果这种模式不是一次偶发,而是重复出现,那它背后很可能不是单点产品问题,而是组织层面的问题。于是,它自然就延伸到了治理和文化层面。

Amiee

我觉得这正好印证了我们前面说的:给 AI 提供充足背景信息有多重要。

当你把这些零散现象一轮一轮地讲给它时,它就能识别出一条重复的行为路径——总是研发失败,总是外部补洞,总是整合不佳。

一旦它识别到这是一个反复发生的模式,它就会开始问:那这个模式为什么总出现?于是就点亮了另一个更深的分析路径。

这反而给了你启发。

陈鹏

对。所以这也是我觉得 AI 特别像一个一起学习的朋友的地方。

你给它很多信息,它给你一些反馈;你再继续修正、补充,它再继续提升输出。你自己在进步,它也在跟着你的上下文进步。

最后,人机互动就会逐渐达到一个相对理想的状态。

Amiee

您这个例子让我想到四火之前给我的一个建议。

我曾经和他说过,我觉得用 AI 有时候会消磨我的好奇心。很多时候,我问一个问题,它给了我一个看起来还不错的回答,我大概觉得 60 分、70 分也能接受,于是就没有动力继续追问下去了。

但回到我们前面说的,其实那个「答案」本身未必最重要,最重要的是我的意图。

所以当我跟四火说这个困扰时,他给了我一个特别有意思的观察指标:如果你想判断自己是不是在更好地使用 AI,不妨看一件事——你和 AI 之间「有意义对话」的轮数有没有增加。

也就是说,你是不是越来越愿意和它围绕一个问题持续深入,而不是一问一答就结束。

我觉得这个小指标,可能也很适合大家拿来做参考。

陈鹏

对,我觉得这个特别好。我自己也有一个类似的建议:大家可以找一个自己非常熟悉的领域,和 AI 做深入互动;同时再找一个自己并不熟悉的领域,也和 AI 做互动。

你会发现,虽然 AI 模型的能力并没有本质区别,但在你熟悉的领域里,你更容易进行多轮深度对话。那个时候,它真的会变成一个亦师亦友的存在。

你可以发现它点亮了很多你之前没想到的东西,而你也能不断帮它补充正确的信息,于是整个互动的价值就会非常高。

但如果是在一个你自己根本不熟悉的领域里,你可能就会像刚才那个「16 个基金经理」的例子一样,直接接受了一个其实完全错误的答案。

所以说,最后还是回到了我们一开始讲的那件事:人的思想和判断在,AI 才有价值;人的能力在,人机互动才能真正变成高质量协作。

也希望大家在用 AI 辅助自己参与市场投资的同时,能够更清楚地理解它的边界和特质,然后找到真正适合自己的参与方式。

最后我还想提醒大家一点:AI 目前并不是一个能够承担责任的主体。

从投资顾问的角度来说,一个专业人士给出建议,是要承担受托责任的。就像医生给病人开药、做诊断一样,背后是有责任约束的。

我们不是说专业人士就不会出错,但至少 TA 应该尽心尽力,把情况尽量了解清楚,给出一个最靠谱的建议。

但 AI 目前并没有 build in 这样的责任机制。

所以,如果投资人要和 AI 做很多互动,最后一定要意识到这一点:AI 并不天然承担对你的受托责任。它只是根据文字指令与你互动而已。

这也是为什么,在金融和投资领域,AI 到目前为止依然更多只是一个辅助工具,它还不能取代一个真正好的投资顾问。

从责任关系上来说,它依然需要和人结合。至少在当前阶段,我们还离不开那个真正承担责任、具备受托义务的人。

李罗丹

其实这就是很多本质性的东西。

而这些本质性的东西,不管技术怎么发展,最终都不会变。每一轮技术浪潮来了,我们都会短暂地忘记这些本质;但最后又总会重新回到它们。

只不过,每一轮技术的发展,都会让这些本质变得更加本质。

Amiee

我觉得最后这一点特别好,也特别有启发。

那感谢陈博士,也感谢罗丹老师分享了这么多来自一线的洞察。我们今天先聊到这里,谢谢大家。

陈鹏

好,谢谢大家。也谢谢罗丹,今天学到了很多。

李罗丹

谢谢大家。

Amiee

和罗丹老师聊完,我印象最深的一句话是:最能体现 AI 价值的地方,都围绕着使用它的人。

我一直很喜欢「AI 是一张静默的智慧之网」这个形容。它有充足的智能,但它没有目的,也没有去处。人不发问,它就不会回答。

而我虽然没有 AI 的智力,但我有目标,有驱动力。

AI 有智力,但没有方向;我有方向,但需要智力。这不正好互补吗?

如果我们可以更好地协作,也许真的能组成一个还不错的、像罗丹老师说的那样的「硅基 + 碳基」作战单元。

而关于怎么更好地协作,节目里提到的「给 AI 提供充足的上下文」,也给了我很大启发。

以前我总是会非常笼统地描述我的问题。比如,我会直接问 AI:「一只股票涨了很多,我还能不能买?」

但后来我意识到,这个问题其实只是冰山一角。水面之下,还有很多隐藏信息。

比如,我当时之所以问这个问题,可能是因为我看到很多人买这只股票都赚钱了,我很怕错过这个机会。

但为什么我会害怕错过这个机会?

为什么我明明知道,作为一个个人投资者,投资个股的胜算并不大,却还是希望在短时间内快速获得一笔收入?

是不是因为我心里有某个目标,一直没有被很好满足?是不是因为我没有提前为这个目标留出足够的预算,所以才会本能地想要依赖一笔意外之财去弥补它?

如果是这样的话,那我有没有可能换一种更稳妥的方式?比如,通过心理账户,专门为这个目标做规划。

我发现,当我更清楚、更具体地表达自己的诉求,并向 AI 提供背景信息的时候,我其实也在同步梳理自己:我为什么会问出这个问题?我当时处在怎样的环境里?我真正的意图又是什么?

就像罗丹老师说的,AI 是我们的放大器,是我们想法的回声壁。

而和 AI 更好地协作的过程,或许也是一个——不管在投资上,还是在生活里——更了解自己的不错通道。

感谢你听到这里,我们下期节目再见。拜拜。

✒️本期重点

AI 的价值取决于使用它的人:AI 本身没有目标,它能发挥多大作用,取决于使用者是否能提出好问题、提供足够背景,并持续校准它的回答。同一个问题,不同的人带着不同的经验、意图和判断框架去问,AI 被「点亮」的路径也会不同。

🤖人机协作小贴士:

  • 注意 AI 的能力边界:AI 有迎合倾向,可能会顺着用户的偏好回答,从而放大原有的情绪和行为偏差。它也更擅长处理被文本化的显性知识,而经验、直觉、现场感等缄默知识,很难被它真正习得。

  • 提问者的意图比 AI 的回答更重要:提问前,先问清楚自己:我为什么想问?真正想知道什么?越清楚地描述目标和背景,AI 越可能给出贴近真实需求的回答。

  • AI 没有受托责任:AI 在辅助投资决策时,并不为结果承担后果。目前,它只能是辅助工具;真正的判断、选择和责任,仍然需要由人来承担。


👀 猜你想看

E185 对话微软中国CTO韦青:不是人类没有未来,是活成机器的人类没有未来

E45 孟岩对话李继刚:人何以自处

E52 和大卫翁聊聊:面对机构投资者,个人真的毫无胜算吗?

🌟 本期嘉宾

李罗丹:讯兔科技创始人,曾主导头部资管机构数字化研究,现专注打造 AI 投研助理 Alpha 派,产品服务近 9 万机构用户。

陈鹏博士:曾担任晨星全球资产管理部总裁,管理过上千亿美元的资产;也曾是德明信基金的亚太区首席执行官。

🎺 创作团队

制作| 有知有行

嘉宾|李罗丹、陈鹏博士

主持| Amiee

声音设计| 甜食

感谢袁园、四火、港港,以及志愿者步枫、饭粒、小马对本期节目的协助。


划线
取消划线
分享
复制

00:00 --:--