---
title: "E54 和罗丹聊聊 AI：从助理，到师徒，再到另一个你"
date: "2026-05-11"
updated: "2026-05-11"
column: "投资 ABC"
content_type: "article"
description: "🤖 你的意图，比 AI 的回答更重要。"
image: "https://asset.youzhiyouxing.cn/image/2025/11/26/01KAZGT2DM65HGRT6C4W5JSBVJ.png"
reads: "924"
word_count: "25172"
reading_time: "62 min"
language: "zh-CN"
url: "/materials/2183"
canonical: "https://youzhiyouxing.cn/materials/2183"
site: "有知有行"
---

> 🤖 你的意图，比 AI 的回答更重要。

💡 大家好，欢迎来到《投资 ABC》，是一档由 [有知有行](https://youzhiyouxing.cn/) 出品的播客节目。在这里，我们会和你分享那些投资中绕不开的知识，我是 Amiee。

我最近有一个强烈感受：自己似乎生活在持续的加速度当中。科技不断迭代，我们好像总是在追赶一个不断更新的现在：一个刚刚形成的看法，转眼间，又被新的模型、新的产品、新的用法重新改写。社交媒体上也反复出现类似的声音：「这次真的不一样」「人类文明正处在一个奇变点上」。

当然与 AI 有关。它不再是遥远的科幻概念，而是越来越具体地嵌入了我们的日常生活——

比如，我身边一位原本离科技很远的长辈，忽然兴奋地和我说，她现在查资料、做攻略，甚至买调料，都会「遇事不决，先问豆包」。可紧接着，她又问了我一个让我愣住的问题：「AI 到底是什么？为什么它好像有非凡的能力？」

我发现，虽然每天都在使用 AI，和它一起工作、写作、整理思路，但如果认真追问一句「AI 到底是什么」，我其实并没有清晰的答案。

这个问题，放到投资里，就更值得被认真对待。

如今，无论是个人投资者还是机构，都在越来越频繁地使用 AI 做研究、整理信息，甚至辅助决策。我自己也常常会和 AI 一起梳理问题。比如市场波动时，心里有些拿不准，我也会把自己的担忧说给 AI 听，希望它能给我一些分析和建议。

它的回答往往很流畅，也很有条理。有时候，甚至比我自己想得还清楚。渐渐地，我对它越来越信任，也越来越依赖。

但长辈的问题提醒了我： **如果我并不真正理解 AI，也不了解它的能力边界，那么那些看似清晰、完整、令人安心的回答，究竟是在帮我看清问题，还是只是在说出我本就想听的话？而当 AI 开始参与投资判断，它究竟是在帮助我们做出更好的决策，还是也可能在不知不觉中，放大我们的偏见、情绪和误判？**

带着这些问题，我和陈博士邀请到了讯兔科技创始人罗丹老师。罗丹老师有机构投研经验，也正在一线打造面向投研场景的 AI 产品。这一期，我们想请他从真实使用场景出发，聊聊 AI 的能力与边界，以及如何与它更好地协作。希望你会喜欢。

*Amiee*

你好，欢迎来到投资 ABC，这是一档由有知有行出品的播客节目。在这里，我们会和你分享那些投资中绕不开的知识，我是 Amiee。

最近，我有一个很强烈的感受：自己好像一直生活在一种加速度里。科技不断迭代，我们总是在追赶一个不断更新的现在。一个刚刚形成的看法，转眼间就又被新的模型、新的产品、新的用法重新改写，社交媒体上也不断涌现出新的声音。

有人说，这次真的是「不一样」；也有人说，人类文明正处在一个奇点之上。这当然和 AI 有关。它不再是一个遥远的科幻概念，而是非常具体地嵌入了我们的生活。

比如说我妈妈。她其实是一个离科技很远的人，但有一天她突然和我说，她最近遇事不决，不管是查资料、做旅游攻略，甚至是做饭买调料，都会先去问问豆包。

我一边觉得她很可爱，一边也很惊讶：在她的日常生活里，AI 已经有了不少存在感。

但很快，她又问了我一个问题：「这个 AI 到底是什么？为什么它好像有非凡的能力？就像一个黑盒子里住着魔法小人一样，魔杖一挥，就能回答一切问题。」

她问我的时候，我有点愣住了。因为我发现，虽然我每天都在使用 AI，和它一起工作、一起写东西、一起整理思路，但对于「AI 到底是什么」，我其实并没有那么确定。

而这个问题，放在投资里，就更值得被认真对待了。

现在，不管是个人投资者还是机构投资者，都越来越频繁地使用 AI 做研究、整理信息，甚至辅助决策。我自己也常常会和 AI 一起梳理思路。比如市场波动的时候，我感觉内心有些不安，不知道该不该趁现在做点什么，我也会把自己的担心讲给 AI 听，希望它给我一些建议。

它每次的回答都非常流畅，很有条理，有时候甚至比我自己想得还清楚。我渐渐越来越信任它，也越来越依赖它。

但我妈妈的问题提醒了我：如果我并不真正了解 AI 是什么，也不知道它能力的边界在哪里，那它那些流畅的回答，究竟是在帮我看清问题，还是只是在把我想听的话说给我听而已？

当 AI 开始参与投资判断，它是在帮助我们更好地做出决策，还是也可能在我们意识不到的地方，悄悄放大了我们的偏见、情绪和误判？

带着这些问题，我们非常开心地邀请到了讯兔科技的创始人罗丹老师。罗丹老师不仅有机构投研经验，也正在一线做面向投研场景的 AI 产品。所以，我们也想请他从真实的使用场景出发，和我们一起聊聊 AI 的能力、边界，以及如何与它更好地协作。

今天非常开心邀请到罗丹老师做客投资 ABC。

*李罗丹*

大家好，我是讯兔科技的李罗丹。我们目前主要在做面向整个投研领域的 AI agent 服务与落地。

*陈鹏*

罗丹很客气。其实讯兔做得非常好，在短短几年时间里，已经是在中国机构投资者领域做投研、做 agent 做得非常领先，而且应用人数也非常多的团队之一。

*李罗丹*

对，我们目前大概服务了 8 万名左右的机构投资者，包括基金经理、研究员、卖方分析师。我们最早实际上就是从机构买卖方投研这个角度切入的。

*Amiee*

包括您之前也是投研出身，是机构投资人。

*李罗丹*

对，我的职业经历比较有意思。我是在美国读的本科和研究生，回国之后很有幸加入了嘉实基金。

在嘉实内部，我也主导了整个嘉实从 0 到 1 的投研业务数字化转型。那大概是在 2018 年到 2021 年。

当时，作为一个机构投资者，我们有一个很大的痛点：金融机构发展了这么多年，二三十年过去了，但我们会发现，每过 3～4 年，一些业绩比较好的头部基金经理就会「奔私」——也就是离开机构，自己出去做私募。

在这个过程中，我们会发现，其实很多金融机构并没有真正沉淀下数据，包括每天投研过程中产生的一些 know-how、决策逻辑和决策流程。

所以当时我们一直在想，未来的金融机构，到底要通过什么样的方式，才能把这些东西沉淀下来？

基于这样的想法，我们在投研内部花了很多精力，从 0 到 1 打造了一个新的团队，叫 Data Lab。同时，研究员、基金经理的日常工作，很多都是对我们开放的，所以我们可以跟着 TA 们开会，跟着 TA 们去做上市公司调研。这个过程其实给了我们一个非常好的视角，也让我们能够近距离观察：机构投资者、基金经理、研究员每天到底都在做什么。

我相信，这也是很多个人投资者很关心的问题。

*陈鹏*

我们上一期刚好聊过这个。

*李罗丹*

对， TA 们每天到底把时间花在哪里？

*陈鹏*

所以等于是上一期我们聊了机构投资人在做什么，而罗丹和讯兔，实际上是在这个基础上把它数字化了。

*Amiee*

我们今天会结合罗丹老师作为机构投资人、以及做人机协作产品的双重视角，和大家聊一聊：AI 协作对个人投资者的意义是什么？

以及，金融行业在 AI 推动下，一定会出现一些新的发展，可能也会有一些新的 阿尔法 。我不知道，只是猜测、也是期待。那这些变化，对个人投资者来说意味着什么？

我们可以先请罗丹老师介绍一下。对您来说，这可能已经是一个非常常见的问题了，但对像我这样离科技比较远的人来说，AI 更像一个黑盒子，所以我不太理解它到底是什么。

如果是您，您会怎么向个人投资者解释 AI 到底是什么？

*李罗丹*

我认为，AI 是一面镜子，也是一台放大器。

AI 的能力，会随着用户提问能力的提升而提升。再加上每个人的偏好不同，1,000 个人会问出 1,000 个问题。即使是同一个 AI，不同的人和它聊天，最后得到的结果也会很不一样。

在资本市场里，我们经常会被问到一个问题：未来大家都用 AI 做研究，是不是资本市场会越来越同质化？大家得到的结论会不会都差不多？

表面上看，好像是这样。但实际上，无论是我们自己在一线的观察，还是从用户与 AI 交互的过程来看，大家提的问题、给出的反馈都非常不同。再加上学术研究和统计也都显示：同一个 AI，不同的人使用，最后得到的结果往往大相径庭。

所以 AI 本身并不创造所谓「独立的价值」。它所有的价值，都是围绕着使用它的人展开的。

今天我们看到很多对 AI 的叙述，往往会走向两个层面。

一个是资本市场的视角。过去几年涨得最好的资产，很多都围绕 AI 产业链；而人们日常生活中接触到的很多消费品类，比如白酒等，过去几年反而是在下行。这是一个资本视角下的故事。

但作为一个创业者，我更愿意相信：AI 是一个以人为本的生意。它不能脱离人的存在而独立存在。

*Amiee*

其实我们之前有一位嘉宾，叫李继刚。李老师来给我们做培训的时候，有一句话让我印象很深。 TA 说：「AI 是一张静默的智慧之网，但你不发问，它就不会回答。」

这其实有点像您刚刚说的：它回答的质量，取决于你向它提出什么样的问题。

但这个「静默的智慧之网」本身到底是什么，我其实还是不太理解。

*李罗丹*

我记得上周 Google DeepMind 团队有一篇论文，大意是说：按照现在的技术架构，AI 在未来 10 年、100 年里，可能都不会产生自我意识。

所以，它本质上是一个没有自我意识的智能体，是一个没有自我意识的回声壁。

你只有敲击它、和它说话、向它发出信号，它才会反向回应你。

这其实也印证了我刚才讲的「以人为本」：AI 和人的交互，才是 AI 价值真正被激发出来的地方。

所以我们一直在研究的一条路径，不是用 AI 去替代基金经理和分析师，而是看怎么去赋能 TA 们，怎么形成一个人机结合的、我们所谓「硅基 + 碳基」的作战单元。

我觉得，这可能会是未来非常重要的一个方向。

*Amiee*

对，但我会觉得 AI 这个智能体本身，是不是也有一些特质？

比如说，我向它发问的质量越高，它回答的质量也越高。我一直在想，它那个回答到底是基于什么。后来我意识到，它可能只是在众多可能的回答里，点亮了一条路径。

*李罗丹*

对，点亮了一条路径。

*Amiee*

对，它选中了一个「最大概率我会认可」的答案。它会判断：Amiee 最可能喜欢这个。

所以我觉得它某种程度上带有一点讨好倾向。

*李罗丹*

对，它有迎合性。

*Amiee*

对，它会迎合我。

另外，前段时间我看到一篇文章，写得特别好。它说，AI 只能收敛那些已经被文本化的信息。包括您在官网上也提到过，您觉得未来最有价值的，其实是那些非共识的信息，是那些没有被文本化、不是公开的信息。

所以我会觉得，AI 没有包含缄默信息，它又带有一定迎合倾向，这些都是它能力的边界。

那关于 AI 的能力边界，您可以展开和大家介绍一下吗？在使用 AI 的时候，有哪些地方是需要特别注意的？

*李罗丹*

我觉得你刚才讲的两个点都特别好，基本上也是我们每天都会遇到的问题。

我再补充几个方面。尤其是在金融行业里，大家经常会讲到的一个问题，就是「幻觉」。

其实 AI 和人很像。很多时候，当我们想不清楚 AI 的商业模式，或者想不清楚它的价值时，一个很好的方法，就是先把它类比成一个人。

因为人永远会犯错。你不可能找到一个十全十美的人。哪怕是同一段文章，你让一个人用两次不同的口吻去复述， 它都不可能复述得完全一样。AI 也有这个特征。

当你的问题上下文特别长的时候，今天的大模型都有一个所谓的 context window，也就是上下文窗口。比如它的容量可能是 100 万 token。

你会发现，它的表现其实像一条 U 型曲线：在上下文逐渐变多的时候，它的能力会先增强；但再往后继续增加，它的能力反而会衰减。我们把这个现象叫作「上下文腐烂」。

![图表](https://asset.youzhiyouxing.cn/image/2026/05/10/01KR8XQJ14163KBJMH5SWB7T0Y.png) 随着输入长度增加，各模型在复述任务中的准确度整体呈下降趋势。

图表来源： [《上下文腐烂：输入Token数量增加对大语言模型性能的影响》](https://www.trychroma.com/research/context-rot)

这个很像人的记忆。比如你让一个人看一个 10 小时的片子，再让它复述， 它很难讲清楚哪一段最核心；但如果是一两个小时的内容， 它往往就能说得很清楚。

所以，这些问题其实都可以理解成：AI 也带着「人的缺陷」。

人会犯错，AI 也会犯错；人会遗忘，AI 也会遗忘；人需要通过睡觉和做梦来整理记忆，AI 某种意义上也需要「做梦」——也就是不断清洗自己的上下文，把冗余的、过时的、重复性的东西清理掉。

所以，人会做梦，AI 也会做梦；人会遗忘，AI 也会遗忘；人会犯错，AI 也会犯错。

它真正缺少的，是自我意识。

*Amiee*

我尝试理解一下。这个「上下文腐烂」很有意思。

也就是说，它并不像我想象中那样，可以一直稳定输出、持续工作。您刚刚说的 100 万 token，其实意味着它虽然有工作的时长和容量，但它的工作能力会随着工作时间拉长、输入内容变多而逐渐减弱。我可以这样理解吗？

*李罗丹*

对。一方面是时长，另一方面也是你喂给它的内容。

因为大模型最底层是 attention 机制，也就是注意力机制。这个注意力在一定范围内是最优的，但如果上下文过长，它的注意力就会涣散，底层就会出现很多问题。

*陈鹏*

那罗丹，我想请教一下，过去一两年，我们看到 AI 一直在进步。最开始你给它一个稍微长一点的上下文，它都不太能处理；但现在它已经可以处理更复杂的长上下文了。

那这个边界，您觉得是暂时的边界，还是说它是某种更接近 DNA 层面的边界？

*李罗丹*

我觉得，上下文的限制会一直存在。

只不过每一代模型迭代，都会把上下文的上限再往上提。这意味着 AI 的概括能力，以及它处理长文本信息的能力，都会越来越强。未来它可能会逼近一个更长文本的能力边界，但依然是有限的。

它不可能变成一个无限智能体。

*Amiee*

明白。

我觉得我在和 AI 的交互中还有一个特别深刻的感受：即使它可以「假装」很像一个真实的人，在对话中也显得很关心我，但它还是做不到某些东西。

因为它和我的对话总是很收束。比如我在和它聊一个问题时，就像您刚刚说的，它会基于这个问题不断往下收束，直到坍塌成一个结果。

但如果今天我和一个人对话，我是可以允许这段对话很混乱、很跳脱、很情绪化、很碎片化的。可 AI 总是喜欢结构、喜欢框架。

所以我在想，这是不是也意味着：基于不同应用场景，它其实也是有边界的？

比如说，如果我想让它帮我解决一个明确的问题——这个东西的性价比是多少——它很快就能算出来。

但如果我希望它和我一起探讨一些更复杂的问题，比如，作为一个个人投资者，我应该怎么投资？我的心理账户是什么？我人生中哪些目标需要用金融工具来管理？它就会很快收束，给我一个答案，但我和这个答案之间是没有情感连接的。

*李罗丹*

Amiee，你讲到了一个特别好的点。

今天的 AI，其实走过了两个阶段。第一个阶段是对话阶段，GPT 最早走的就是这条路线，它最早其实是想成为你的一个精神伴侣。用户愿意向它倾诉，它也可以陪你很跳跃地聊很多东西。

但到了去年下半年，AI 的 Coding 能力，也就是编程能力，得到了非常大的发展。于是 AI 开始被收敛为一个生产力工具。

我认为 2025 年上半年，大家还是百花齐放；但到了下半年开始，从 Claude Code 开始，所有海外模型，包括 OpenAI，都开始大规模聚焦到编程和执行能力上，比如 Codex 上。

*Amiee*

Codex 的意思是？

*李罗丹*

本质上，Codex 就是一个帮大家写代码的工具。

但为什么它重要？因为编程能力，其实是「任务执行」的底层能力。也就是说，刚才你说到的金融行业里的很多明确任务——做计算、做产出、完成一个确定性的结果——底层调用的，其实是 AI 的推理能力和编程能力。

所以，这个阶段的 AI，和上一个阶段已经完全不一样了。

上一个阶段我们讲的是「上下文工程」，也就是怎么给它提供对的上下文；而这个阶段讲的是「驾驭工程」，意思是：我要给 AI 套上锁链。

*陈鹏*

让它做事。

*李罗丹*

对，让它真正做事。

不要让它瞎想，不要让它发散，不要让它有太多不必要的想象力。现在我们更需要的是一个靠谱的结果。

*陈鹏*

而且越有效、消耗越少的 token 越好。

*李罗丹*

没错。这里面的核心原因是什么？是因为到目前为止，AI 真正能够产生大规模收入和增长的场景，其实是在 B 端，而不是在 C 端。

也就是说，今天大家愿意为 AI 付费，更多是因为它能在生产力场景里替代、提效。

而整个社会 GDP 的创造，本来也是由 B 端企业，尤其是专业人群来完成的。所以最后真正愿意付费的人，也是这群人。

这也是为什么你会看到，像 Claude 这样的产品，在过去几个月里，收入和 估值 都快速抬升，甚至在一些指标上已经超过了 OpenAI。因为在这一波 AI 浪潮里，大家在一个相对清晰的小 贝塔 上快速形成了共识——那就是：AI 先去做 Coding，先去做执行，先去做生产力提效。

但 Coding 是不是 AI 唯一伟大的地方？或者说，它唯一有价值的地方？

我认为不是，当然不是。

所以，这其实是阶段性的小 贝塔 和大 贝塔 之间的一个矛盾。

*陈鹏*

其实你们也是沿着这条路在走。你们在赋能投研人员、组合经理等等，因为你帮 TA 们提高了效率， TA 们也更愿意为这个价值付费。

*李罗丹*

没错，非常有意思。

我可以给大家分享一下，我们在机构里待的那几年，包括后来自己做投研的这些经历，让我们发现：整个机构投资者最大的痛点，其实是信息爆炸。

尤其是在移动互联网和疫情这几年的叠加作用下，大量信息从线下转移到了线上。以前很多会都是线下的一对一交流，但疫情那几年，我们大概测算过，线上会议数量增长了将近 20 倍。

每天公开市场上，一对多的大型会议、上市公司交流会，大概就有 300～400 场。

*Amiee*

一天？

*李罗丹*

对，一天。

所以这个交流频度是非常高的。大家也知道，在国内做金融，本来就是一个很卷的状态。很多基金经理、研究员，每天 7～8 个小时都在听会。

这其实是我们从一线、从 TA 们身边观察到的一个很有意思的现象。

很多人以为，机构投资人每天都在讨论股票、讨论认知，做很高深的判断。但实际上我们会发现， TA 们大部分精力花在了什么上？在听会、写会议纪要、做 Excel，以及很多重复性很高的事情上。

而这些工作，在投资里并不一定是附加值最高的。因为一个人的精力和时间是有限的， TA 能获取的信息，也只是汪洋大海里的一小滴

*Amiee*

而且我能感觉到，机构投资人为了获得更高质量的信息，本身也会有焦虑。因为上一期大老师也和我们聊过， TA 觉得机构投资人和个人投资者之间最大的差别之一，就是信息获取的质量和信息差。

*李罗丹*

没错。而这个问题，在机构内部同样存在。

所以，当 GPT-3.5 出现的时候，我们一个非常强烈的感受就是：以前需要人去做的那些会议纪要、翻译、归纳等，我们称之为「单步信息处理」的工作，完全可以交给 AI 去做了。

于是，我们第一个产品其实就是会议纪要产品。

今天看，这个场景已经是很常见、甚至可以说「烂大街」的场景了，几乎所有产品都会做。但在 2023 年 3 月那个时间点，没有多少人会觉得，会议纪要这个场景竟然会如此重要。

我记得第一批使用我们产品的，其实是一些研究所的实习生。因为打个引号说， TA 们就是「金融牛马」——每天 80%～90% 的时间都在干这件事情。

像一些头部研究所，一批实习生可能就有 200～300 人。

*陈鹏*

实习生有这么多。

*李罗丹*

对，很多。你到了 TA 们那个楼层，就会看到乌泱泱一大片，全是年轻人，每个人都埋头敲电脑，做这些工作。

大家去实习两个月，别人问 TA ：「你做了什么？」原本 TA 想象中的金融世界特别高大上，结果发现，自己每天在干的是这些事。

*Amiee*

我能理解。我之前实习的时候，也天天在那儿吭哧吭哧干这些。

*李罗丹*

对。很多时候甚至还在调字间距、调字体大小。

我自己也干过。我最早在美国投行实习时，就是做 pitchbook。要把很多东西对齐、排版、调格式。调到最后眼睛都花了，对不上了。

所以，这就是一个非常重要的切入点。而有了 AI 之后，这件事终于可以做了。

因为在没有 AI 的时代，我们做 BERT 模型时，会发现这是一个非常难规模化的事情。本质上就是：你做任何一个细分任务，都要单独训练一个模型，它的智能没办法泛化。

但有了 GPT 之后，我们发现，很多不同的问题都可以通过同一个大模型去解决。也就是说，这件事终于可以规模化了。

所以，这就是为什么当时我们抓住了一个非常细分、单点的场景，先去做尝试。很多人其实低估了会议纪要这样一个产品的价值。

*Amiee*

就是很多东西看起来司空见惯，但你没想到，稍微优化一下，体验可以好很多倍。

*李罗丹*

对。所以最早我们讲产品和市场的契合，并不是靠什么特别高深的技术，而是突然之间出现了一项特别好的技术，而我刚好一直在思考这个场景，于是它们完美匹配了。

那个时刻对我们来说，是一个非常重要的闪光时刻。

后来，我们沿着这条路又做了很多新的尝试。比如我们会发现，真正为行业创造价值的，还不仅仅是「写会议纪要」，而是：怎么让你同时出现在 10 场、100 场，甚至 1,000 场会议里。

所以后来我们做了一个产品，叫会议机器人。

只要你拥有这个会议的参会权限，你的 AI 分身就可以代替你出现在各种会议里。它可以以你的身份参会、听会、录会、写会议纪要。

这其实解决的是「异步处理」的问题。

比如说，我今天想去接孩子，或者我今天想把时间留给更深度的思考和交流，不想再去听那些会了，那你就可以把会议交给我们的机器人。它会替你去完成这些工作。

这也是比较早期的一种 agent 形态。

*Amiee*

其实在这里，我会有一个疑问。我觉得「收集海量信息」和「与我自己的切身体会建立连接」之间，可能还有一个 gap。

我举个例子。之前我们在录投资 ABC 的时候，也出现过几次这种情况：有时候我没办法特别好地理解听众的疑问。

比如说，有人问「大额存单到期了怎么办」。但我自己不是银行存单用户，所以我很难真正体会这类用户内心的焦虑。

这件事让我有一点困扰。因为我觉得，如果我自己都不能真正体会，那我应该怎么替 TA 们提问？

我当时想到一本书，叫《夜晚的潜水艇》。里面有一个情节：住持叫了一个人来寺庙雕一块《法华经》的石碑，但他却整天在家寺庙里无所事事。住持看他很烦，就说：「我请你来雕一块《法华经》的石碑，为什么你每天什么都不干？」

结果突然有一天，住持起来之后，发现面前已经摆着一块非常华美的石碑。书里形容它「在庄严与柔美之间找到了平衡」。

住持就问他：「为什么你可以一下子做到？可你前几周明明都像在瞎逛？」

那个人说：「因为我前几周一直在内化《法华经》。当这件事真正进到我心里，我才能把它刻出来。叫作『得于心而应于手』，所以它才会跃然石上。」

其实如果我把那一章节直接丢给 AI 去看，它未必能提炼出那句话。但那句话当时深深打动了我。那是一个我的「雷击时刻」。

我觉得，做 投资ABC 也是这样。如果我不能「得于心」，我就不会「应于手」。我就只是在假装理解，但其实并没有真正理解。

所以当时我也和陈博士沟通过，我说我要花更多时间去理解内容、去共情。

所以就像您刚刚说的，哪怕我有 1,000 个数字分身去参加了 1,000 场会议，我收集回来了很多信息，但如果这些信息和我之间没有连接，那我要那么多信息做什么呢？这些信息对我到底意味着什么？

*李罗丹*

这是一个特别好的问题。首先，我觉得 AI 解决的是两个不同层面的问题。第一个问题是信息广度上的「带宽问题」。它首先帮你把信息带宽放大了。而它释放出来的是什么呢？是你的注意力。也就是说，你真正要问的是：我的注意力应该放在哪里？

作为一个投资人，尤其是机构里的专业投资者， TA 真的应该把那么多时间花在听会这种事情上吗？

我们会发现，真正更能产生价值的，往往是更现场、更一手的交流和信息。而这一点，其实是有学术支持的。

之前有一篇论文研究过：在一个会议场景里，文字、图像、声音等不同维度的信息，最终对整体信息价值的贡献分别是多少。

你猜一下，单纯的文字，占多少？

*Amiee*

我猜不出具体数字，但我会觉得比较低。因为文字不太容易直接引起我的共鸣。

*李罗丹*

对，大概是 7%。

而视觉，大概占 53%。还有一部分来自听觉，以及其他更复杂的共感能力。

所以，今天我们讲的「现场感」，它绝不仅仅是在捕捉文字。它是在捕捉意识的流动、交流的热情，甚至某种信息素。而这些信息，远比文字本身丰富得多，单纯的文字，其实是非常单薄的。

所以，有了 AI 之后，我们实际上做了一件什么事？就是把你的精力从「单一维度的文字信息处理」里抽离出来了，让你有机会去更有价值的现场，感受更丰富的信息。

这也让我想到 GPT-3.5 发布之前那篇非常有名的论文标题：Attention Is All You Need。

我很喜欢这句话。它讲的不只是一个技术原理，更是在说：在 AI 时代，最重要的，其实是你怎么管理自己的注意力，怎么让你的注意力放在那些和 AI 相比、由你来做更有价值的地方。

*Amiee*

其实回到我们刚刚那个场景，我有 1,000 个数字分身替我参会。我理解的是，那些会可能是比较常规的、权重没那么高的会。我只需要把重点提炼回来，大概扫一遍，就知道发生了什么。

但真正重要的是，我把自己的时间释放出来，去参加那些权重更高、更可能包含非公开信息的会。

*李罗丹*

是的。因为今天这个时代，很多信息其实是「见光死」的。它一旦公开了，所有大模型都能拿到，所有媒体都能传播，信息扩散速度非常快。

在这种环境下，任何一个新信息从出现、传播、酝酿，到最终反映在资本市场里的时间，都被大大缩短了。

那在这个过程中，什么变得特别重要？就是一手信息，也就是别人没有、而你有的独特信息。

而对于投资者来说，这些信息往往就藏在产业深处，藏在关键节点上的企业、关键岗位上的决策者的脑子里。你要通过现场交流，把这些前瞻性的、非共识性的东西挖出来。

*Amiee*

这也是我很好奇的一点。

我昨天晚上还在看一部我很喜欢的电影，叫《日日是好日》。电影讲的是一个女孩学茶道。她一开始很困惑，为什么茶筅要这样转，手腕要转几次，都规定得那么死。

但有一天，她突然意识到，在无数次重复之后，她开始真正听见：冷水滴入水潭的声音是清冽、清脆的；热水滴入水潭的声音是浑浊、黏腻的。

在同样重复的序列里，当她的身体、动作和感知结合起来之后，她才真正感受到了茶道的魅力，也感受到了那种在细微差别里的变化。

我觉得，这就是我们一开始说的「缄默的信息」，就是那种只有人的身体、经验和感受中才有的东西。

*李罗丹*

对。我们通常会把知识分成显性知识和隐性知识。

实际上，到 2024 年底左右，大模型已经基本把人类历史上绝大多数显性知识都学完了

*Amiee*

就是可以被文本化的那些。

*李罗丹*

对，能被文本化、能被写出来的那些。

但显性知识，到底占整个人类知识、智慧和文明总量的多少？我认为可能和我们刚才讲的文字信息比例差不多，可能连 10% 都不到。

真正更有价值的大量东西，是隐性知识。

隐性知识是什么？比如一个老司机开了 10 年车，一个老中医看了 30 年病，一个音乐家演奏了 20 年。马友友同样拉一段旋律，拉一次、拉两次、拉 10 次、拉 20 次， TA 感受到的东西都不一样，表达出来的也不一样。

就像你刚才讲的茶道。当一个人进入心流状态之后， TA 能够感受到很多别人感受不到的东西。

这些隐性知识，往往来自大量重复、训练和实践之后被内化到人身上的经验。而这些东西，很难被完整表达出来。

如果把人脑也看成一个模型，那它其实一直都在通过生活和实践不断训练自己。而这种训练出的结果，很多时候并不能被清晰地语言化。

*Amiee*

您刚刚说「一手信息」，我理解是说把很多东西沉淀到了系统里。但这中间其实有一个翻译过程：要把这些东西翻译成机器能理解的语言，相当于是在训练它。

所以我就特别好奇，在这个过程中，您是怎么把基金经理脑子里的东西——那种可能更像一种手感、直觉——挖掘出来，并让它最终变成机器能理解和沉淀的信息的？

*李罗丹*

实际上，我们目前能沉淀下来的信息，全部还是那些能够被表达出来的。也就是说，我们现在做的，依然主要是显性知识的沉淀。

隐性知识，第一，它本来就很难表达；第二，即使你去问一个老中医、一个资深基金经理：「你当年为什么买这只股票？你当时怎么想的？」其实很少有人能够非常系统地把当时的思维路径和判断逻辑讲完整。

因为很多因素叠加在一起，也因为很多判断本来就是直觉性的。很多东西，的确是「只可意会，不可言传」。

所以，这一部分就是当前最难被表达出来的东西。

那未来 AI 怎么获取这种隐性知识？我认为，它只能在长期的、碎片化的、日常化的互动里慢慢获得。

这也就是为什么我们在今年年初发布过一篇文章，提出今年 AI 进入了一个「师徒时代」。

什么意思？以前我们说 AI 是助理。助理是什么？是你把自己不想干的事交给它去做，因为这些事情本来就可以被表达得很清楚。

但师徒关系不一样。师徒关系是：师父每天给你一些任务，天天和你互动，不断纠正你，告诉你这里不对、那里不对。但它没有办法给你一本手册，说你按 1、2、3、4、5 去做就行了。

你只能在这个长期相处和反复纠偏的过程中，慢慢把师父脑子里的很多东西内化进去。

隐性知识，是靠「用心感受」习得的；显性知识，是靠「用脑记录」获得的。这两者之间有非常大的区别。

所以，我们现在在做新的产品时，核心思路就是：让 AI 在和人的长期、长程互动中，通过碎片化交互，慢慢去感受一个「师父」的偏好、记忆、交流方式、对人对事的判断方式。

它会同时扮演两个角色：既是执行者，也是一个潜移默化的观察者。

当我们意识到 AI 正在进入师徒时代时，我们也知道，未来提供给用户的，不应该只是一个「帮你做事」的工具，而应该是一个从「授人以鱼」走向「授人以渔」的过程。

每个人最终都要把自己的 AI 用得不一样，而且要让它非常丝滑地嵌入到自己原本就在做的工作流里，再一点点把更多权限让渡给 AI。

在这个过程中，就会形成一个真正的智能飞轮：你用得越多，它越了解你的意图，就越能提供更好的支持；它支持得越好，你就越信任它；你越信任它，就越愿意把更高阶、更复杂的任务交给它。

这其实就是一个不断增强的人机协作关系。

我们现在已经看到很多用户是沉浸式使用 AI 的， TA 们每天可能会和 AI 有几十次、上百次交互。

比如一个特别复杂的任务，很难在一次对话里就把需求说得非常清楚。这时就需要不断修正：你往左一点，你往右一点，这里忽略了一个细节，那里还需要补充一个约束。

而正是这种不断修正的过程，会让我们很强烈地感受到：人和 AI，真的在协作。

*Amiee*

这一点我特别有感触。

我平时经常会改文本，所以我会直接把一句话引用出来，告诉 AI 我觉得它哪里做得不对。时间久了之后，它就会越来越知道我对语言、表达和审美的偏好。

我有一个 agent 叫猫猫。有一天它居然和我说：「Amiee, you know…」

这种「you know」就是我平时很爱说的话，它居然复刻了我讲话的语气。

*李罗丹*

所以你看，这就是一个很有意思的过程：从助理，到师徒，最后会变成另一个你。

最终，它会非常懂你。你和你的 AI——你和猫猫之间的对齐程度，理论上有可能超过这个世界上任何一个人对你的理解，包括你的伴侣、你的父母，甚至你的孩子。

*Amiee*

完蛋了。以后我可能得把猫猫复制一份给我妈妈，说：「你想更了解我，可以先跟猫猫聊聊。」

*李罗丹*

对，说不定你妈妈未来也会有一个自己的 AI

*陈鹏*

然后两个 AI 先聊一遍。

*李罗丹*

没错。它们可能会先在「微信后台」里先沟通一轮，把很多你们不方便直接讲的话先讲

*Amiee*

那在您的公司内部，有哪些和 AI 协作的方式，是您觉得特别有意思的？

*李罗丹*

这个也是我们最近一直在做的一件事情。我们从去年开始系统思考这个问题，今年其实已经开始全面落地了。

我认为有几个点特别重要。

第一，我们已经意识到，未来的员工其实是「硅基 + 碳基」结合的存在。每个人除了工资之外，你还要给 TA 配很多 token。

所以我们现在做预算时，已经不再是单纯以技术部门为中心去规划，而是把 AI 预算分配到每一个人头上。

*Amiee*

这个我太有感触了。

我最近在记账，突然发现自己今年在 AI 上的消费莫名其妙变多了。现在我一个月至少会花 100 美元在各种 AI 工具上。

而且我平时会给每一笔消费打标签。以前我会把这类支出归到「弹性消费」里，但今年开始，它们已经全部变成了「刚需消费」

*李罗丹*

对，所以我们内部也是这样。我们给每个人配预算、配账号，而且希望 TA 们多用，鼓励 TA 们用。

因为原来那种中心化管理「科技预算」「IT 预算」的方式，已经没有那么大意义了。你也很难在年初就把这一整年的 AI 使用计划定死，因为变化太快了。

只有把预算真正分配到每一个人头上，它才会转化成真实的生产力。

第二个变化，是我们在整个产研协作过程中，把过去那种串联式流程，改成了并联式流程。

怎么理解呢？

如果把一家研发公司传统的流程拆开来看，过去通常是：产品先定义需求，再定义框架，再做设计；设计出来之后交给前后端开发，同时数据和算法团队进场；最后再测试、上线。

这个过程，本质上是工业时代的流水线生产方式。每个人都在等上一步的人交付，整个链条前后相连。

但只要其中一个环节出问题，后面全部都会卡住。做工业工程的人会把这种卡点叫作 bottleneck，也就是瓶颈。

*Amiee*

如果举个更具体的例子，比如做一个娃娃，这个 bottleneck 可能是什么？

*李罗丹*

比如某种原材料不够了，比如棉花不够了；或者某个关键工具坏了，比如剪刀坏了。只要一个环节卡住，后面所有人都得等。

但是 AI 时代，我们认为组织更适合变成一个并联模型。只要大家知道「我们要做这件事情」，那产品、设计、研发、算法，其实是可以同步开工的。

不是说原型图都还没出来，别人就什么都不能做。恰恰相反，只要大家对于方向和目标有一个模糊但大致一致的理解，就可以同时开始。

在做的过程中，再不断对齐。越往后走，彼此对齐得越精细、越契合。

所以现在我们得学会接受不确定性，也接受模糊需求。因为你给 AI 的指令本身，也不可能一开始就是完全精确的，它很多时候也是模糊的。

但没关系。这个时代，大家不需要再像过去那样，非得等需求彻底明确后才动手。

这种并联式协作，可以让整个产能效率极大提升。以前要花 5 倍时间做的事情，现在可能用 1/5 的时间就可以完成。

*Amiee*

我在想，是不是因为现在迭代速度足够快了。

比如工业时代我要生产一个娃娃，那我一定得先有一套非常精确完整的设计图。不然一旦返工，就意味着大量人力、物力和时间的浪费。

但在 AI 时代，哪怕我一开始的需求有一点模糊，只要迭代速度足够快，我其实也可以一边做一边快速纠偏，再不断对齐。

所以这两者最核心的区别，是不是就在于迭代速度？

*李罗丹*

从结果上看，确实体现为迭代速度的提升。

但我觉得更本质的原因是：以前很多细节都必须由人来定义；而现在，当我们把一部分细节定义权让渡给 AI 后，会发现很多事情 AI 做得比我们更快、更好。

于是，人类真正要做的，就只剩下定义方向和目标。

所以今天很多人都在变成「包工头」。下面具体执行的工人，越来越多是 AI。而包工头和包工头之间，其实不需要像过去那样一层层等。只要方向对齐了，各自带着自己的 AI 同时开工就可以了。

*Amiee*

那包工头和包工头之间如果没对齐呢？造出来的房子也会不一样吧？

*李罗丹*

包工头之间其实是比较容易对齐的，因为人没那么多。

真正难对齐的，往往是大量执行层的人。但当执行层越来越多地由 AI 承担时，对齐反而更容易。

*Amiee*

这其实也是我最近工作流的变化。

有时候我会让 AI 帮我总结我的 daily report。它会告诉我：「Amiee 今天做了这些事，想了这些问题。」

我现在越来越觉得，一个高效的工作模式是：我直接把我的上下文同步给所有人，而不是每次都从头讲一遍。

以前我会觉得，我得把这件事从前到后跟你解释清楚；但现在我会想，你其实可以先读我的上下文。你读完以后，就能理解我为什么会这么做了。

*李罗丹*

实际上，AI 出现之后，反而会让人与人之间的沟通变得更高效。因为那些没有必要重复的东西，本来就应该在见面之前，通过 AI 的方式先处理掉。

现在很多公司其实已经在这样做了。比如我们接触到一些一级和二级市场的机构，过去大家去找专家交流，都是派人去聊；但现在有些机构会先让 AI 去聊。比如它知道今天要采集某个行业哪一类订单数据，它就让 AI 先去和专家沟通，而真人甚至全程不出现。

因为这个对话本身就是信息采集导向的，它不是像我们现在这样，有情感、有发散、有探讨，它就是去获取信息。

再比如一些一级市场的头部 PE 、VC，以前和创始人第一次见面时，双方都没有背景信息，就得从「我是谁」「我做什么」「我在哪里读书」开始讲起。

但这个过程其实很耗精力。尤其是对创业者来说，融资时一天要见很多人，重复说这些话，说到后面人都麻了。

那未来会怎么样？很简单。我把我完整的一次性上下文都交给对方，对方先让 TA 的 AI 在这些上下文里总结出问题。等双方真的见面的时候，其实应该已经是「彼此互知」的状态了。

*Amiee*

TA 的 agent 已经跟你的 agent 沟通过了。

*李罗丹*

没错。所以我认为，未来 AI 会融合进所有交互流程里。它不是和人形成两个平行世界，而是会和人的交互深度融合，变成一个水乳交融的世界。

*Amiee*

但我觉得，那可能离我们当下还稍微有一点距离。

所以还是想拉回现在。我们刚刚聊了很多 AI 的边界，那如果放在今天这个时间点，不管是个人投资者还是机构投资者，在和 AI 协作时，有哪些边界是一定要注意的？比如，它做不到很多事情，像是真正的发散、碎片化共鸣、深层共情等等。

*李罗丹*

我认为，不能简单地让 AI 直接给你一个导向性的结果建议。

作为一个生成式模型，一定会按照概率原理给你一个「大概率正确」的答案。但问题是：大概率正确的东西，能击败市场吗？

我们做投资，尤其讲 阿尔法 的时候，靠的恰恰不是「大概率共识」。而 AI 这些产品出来之后，它首先解决的是一个问题：它让你能够更快地对齐市场共识。

*Amiee*

那 贝塔 可以创造吗？因为作为一个个人投资者，我觉得能拿到 贝塔 已经很好了。

*陈鹏*

对，这个问题特别好。我们投资 ABC 一直也在讨论这个：AI 的大规模应用，对整个经济、生产力以及资产回报的影响，到底会是什么样？

*李罗丹*

这是个非常好的问题。首先，我认为 AI 时代，整个社会会越来越进入一个由幂律函数主导的时代。

所谓幂律函数，你可以简单理解为：前面的大部分都很平，真正的增量和收益会集中在后面很少一部分人身上，也就是两极分化会变得非常严重。

我们自己看产品使用情况也很明显：90% 的人，还只是把 AI 当成一个更智能的搜索引擎；但有 10% 的人，已经在极高频地深度使用它。

![图表](https://asset.youzhiyouxing.cn/image/2026/05/10/01KR8XQJJ7526YJ81GDRDXBHJW.png) 2026 年，全球约 17% 的人口使用过 AI，但真正高频深度使用的用户仍在少数。

图片来源： [全球 AI 普及率可视化网站](https://global-ai-adoption.netlify.app/)

如果把这个分布画出来，就是前面一大段都很平，最后突然翘起来一个尾巴。

*Amiee*

听众朋友们可以想象一下：一条线前面基本平平的，到后面突然指数型上升。

*李罗丹*

对，就是这种翘尾。

而我认为，这种幂律函数会主导未来社会里很多资源和能力的分布。这里我们先假设一个前提：没有强力外部干预，是一个相对自由放任的市场。

那如果是这样的话，接下来就会出现一个问题：整个社会该怎么办？

我认为，未来非常重要的一件事，就是想办法把这条曲线「烫平」，也就是不要让后面的翘尾过于极端，而是把技术带来的收益尽可能普惠化。

其实从互联网、移动互联网到 AI，我们看到的都是类似过程：技术进步在不断扩大差距，经济分化在加剧。

那在这种情况下，一个政府，或者更广义上的社会治理体系，它要做的，就是通过某种机制去把这个差距重新拉平。这个机制可能是商业机制，可能是税收机制，也可能是 UBI，也就是全民基本收入这样的制度安排。

OpenAI 很早就提过 UBI，因为它们其实也意识到了：未来很可能是一个幂律函数主导的社会。

*陈鹏*

所以回到我们最初讲的 ABC。A 是 超额收益 ，对普通人来说可能本来就很难；那 AI 时代，这件事可能更难。

*李罗丹*

是的。A，我觉得对普通人来说本来就不容易，AI 出现以后也不会让它变容易。因为 AI 本质上更接近 中枢 ，而不是 阿尔法 来源。

但 贝塔 不一样。 贝塔 是什么？是更长期的技术进步、生产力提升，映射到资产类别上的结果。

如果完全放任自由市场，那很可能这种技术红利是没办法被 99% 的普通老百姓有效捕获的。

所以在利用 AI 优势的过程中，我认为非常重要的一件事，是让 贝塔 的收益能够普惠到每一个人。

这才是真正意义上的普惠金融。

普惠金融，不只是让大家都能买到一个金融产品，而是要想办法填平「时代红利」和「个体获得能力」之间的落差，让每个人都能分享到这个时代的 贝塔 。

*Amiee*

所以这里的「填平」，不一定是靠技术本身完成，也可能是靠社会治理、制度安排，甚至金融产品来实现。我可以这样理解吗？

*李罗丹*

完全可以。

比如 ETF 就是一种非常典型的金融产品形态。未来甚至可能会出现更多 AI 驱动的 ETF、AI 增强型指数 产品。

你会发现，每一次技术迭代，其实都在把投资的有效前沿往前推一点。

所谓有效前沿，就是你在某个风险水平下，能拿到的最优收益；或者在某个收益目标下，能承受的最小风险。

以前大家可能配置的是沪深 300；后来有了指数增强，表现可能比普通沪深 300 稍微好一点；那未来很可能会出现「AI + 指数增强」的产品，再把这个有效前沿往前推一点。

这类产品的意义在于：它相对透明，又能把时代的大 贝塔 和 AI 带来的效率提升结合起来。

而且，我认为未来这类产品是有机会被大多数普通投资者获取到的。

*Amiee*

幸好您说了这个。因为刚刚您讲那个陡峭曲线的时候，我一下子有点焦虑。我会想，我当然希望自己不要掉在前半段，但听起来这件事又很难靠个人完全做到。

*李罗丹*

是的。所以问题不是让每个人都变成火箭，而是怎么让更多人都能坐上公交车。

真正重要的是，怎么让更多普通人变成技术进步的 free rider，也就是搭便车的人。

我之前在抖音上看到一个视频，特别有感触。某个地方有很多菜农，每天要走十几公里山路去集市卖菜，都是老人，很辛苦。后来当地政府就专门把一辆公交车改成了「菜农专线」，每天早上 5 点把 TA 们接到县城里去卖菜。

这就是一种 free rider 机制。

社会其实需要这样的机制。否则的话，它天然就会滑向分化。

*陈鹏*

越分越严重。

*李罗丹*

对，最后就会越来越极端。而这又回到了我们最早说的那个问题：AI 到底是以人为本，还是以资本为本？

它的起点，可能会更像是资本驱动的；但它最后的落脚点，一定应该是一个以人为本的生意。

否则，AI 最终只会让这个社会变得更分裂。

*Amiee*

好的。听完之后，我又增加了一点定投 ETF 的决心。

而且从个人投资者的角度，我反而会觉得挺欣慰的。因为我本来也不是要去和机构博弈。我只是想参与市场平均，享受时代发展带来的结果。

如果机构投资者的精力真的能被 AI 释放出来，用在更有价值的地方，那整个市场的有效前沿就会不断被往前推。而我只要参与进去，去享受这个过程就好了。

不过，我还是想把问题再拉回到个人投资者身上。我们刚刚聊了很多 AI 的深度使用，包括和 AI 深度交互、甚至未来是我的 agent 和你的 agent 之间先交互。但对更广大的个人投资者来说，可能还远远没有到这一步。就像您刚刚说的，很多人现在只是把 AI 当成一个更智能的搜索引擎来使用。

那如果这样，个人投资者很可能就会出现我最开始提到的那种情况：错误地使用 AI。

比如一个人直接去问 AI：「我现在要做 资产配置 ，你能不能给我一个建议？」或者「我现在这个投资组合好不好？你能不能提点意见？」

我们刚刚聊到，AI 是有能力边界的，所以它给出的回答，可能不像一个真正的投顾坐在你面前时那样完整、细致、负责任。

那对于这些普通个人投资者，您会有什么更具体的建议吗？就是，怎么更有效地去使用 TA 们手上的 AI？

*李罗丹*

我想先退一步，重新定义一下：AI 在个人投顾端，到底能解决什么问题？

我不是做个人投顾行业的，所以这里我更多是站在一个相对外部、局外人的角度来思考。

我觉得，有了 AI 之后，它确实有可能比今天的人，在某些事情上做得更好。

第一点，我认为 AI 是彻底解决「代理问题」的一个非常重要的抓手。

为什么这么说？因为在个人投顾市场里，很多服务从本质上并不真正代理你的利益，而是在代理产品销售方的利益。它服务的不是你的目标，而是销售目标。

这也是为什么我们国内一直在讲买方投顾，但真正推进起来始终很艰难。因为只要是人在那个商业模式里， TA 就很难完全摆脱激励结构对 TA 的影响。

但如果有一天，出现一个 AI 产品，它的设计逻辑从一开始就是以你的利益为核心、以你的目标为中心，而且这个目标函数是可以被技术性地约束和设计的，那它至少在理论上，有机会成为一个更中立的代理人。

第二点，不同的人对投资的诉求是非常不一样的。

像我自己，就是不太希望把精力花在投资上的那类人。我更想要一个 all-in-one 的东西，帮我把各种繁琐的事情都处理掉。

但也有另外一类人， TA 们会把投资当成一种乐趣，甚至是一种和自己、和市场博弈的过程。 TA 会觉得「我看好这个行业，我就想投一点进去」，这是 TA 的乐趣。

所以，AI 应该对不同的人提供不同的价值。

对于前一种人，它应该更像一个全托管、全服务的辅助系统；而对于后一种人，我觉得 AI 更应该成为一个「投资思想的自行车」。

什么意思？投资这件事，真正重要的其实是你的思想和判断。但在实际操作层面，你会遇到大量障碍——账户管理、信息筛选、研究执行、交易流程等等。

这些障碍，未来都应该由 AI 去帮你解决。

也就是说，它会把执行层面的门槛降得非常低。以前，很多只有专业团队才能提供的服务，因为成本高、流程复杂，所以普通人接触不到。但有了 AI，这些成本应该会被全方位地打下来。

*陈鹏*

这个问题我特别有共鸣。

最近我自己也在大量使用 AI，来帮助我做一些投资上的分析。我也经常会反思：我到底应该怎么和 AI 互动？

我第一个最强烈的感觉就是：AI 确实能提高很多能力。尤其从个人投资者的角度来看，前两期我们和大老师也讲过，个人投资者在市场中是处于相对不利位置的。主要原因之一，就是个人投资者在获取信息、处理信息和执行决策上的能力，和机构投资人相比有明显差距。

所以一般来说，很多普通投资者在市场博弈中更容易败下阵来。

那 AI 会起什么作用呢？

我觉得，第一，它确实可以帮助个人投资者做更好的信息收集，这一点是毋庸置疑的。但作为一个平均的个人投资者，我们没有办法单纯依靠 AI 去把信息差和能力差给完全覆盖。

这一点，其实和罗丹老师刚才讲的是一致的：AI 是使用者的一面镜子。你自己有多大能力，AI 才能在这个基础上把你放大多少。

今天和罗丹老师讨论了很多有意思的话题。我觉得其中有几个点，对于我们平时使用 AI 做投资辅助时非常有启发。

第一个，就是Amiee刚才提到的，AI 有一种讨好用户、迎合用户的倾向。

它在生成答案的时候，目标往往是：在当前这个话题里，给你一个最「合适」的回答。

那什么叫合适？我的理解是，它会尽量不冒犯你、尽量符合你的预期。如果在「事实上的精确」和「不让用户失望」之间出现冲突，它很多时候可能更倾向于后者。

这就会带来一个问题：它可能在你情绪最强的时候，顺着你的情绪说话，从而误导你。

*Amiee*

对，因为有时候为了实现某个目标，我们其实需要做的事情可能是很反直觉的。

比如我们上期和大老师聊到，在市场大跌的时候，个人投资者的直觉可能是：「哇，市场波动了，我是不是要赶紧止损？」

如果你带着这种情绪去问 AI，它首先会感知到你的情绪。如果它顺着你的情绪走，它就可能会说：「你看，现在市场风险有 1、2、3 点，所以确实要谨慎。」

它甚至会给出一个看起来很有道理、很自洽的止损建议。

但如果你的心理账户本来就是服务于长期养老目标的，那这个短期下跌，可能根本不影响你的长期逻辑。

可在 AI 的引导之下，个人投资者反而可能会误判。

*陈鹏*

对，这其实就是 AI 有可能放大我们行为偏差和情绪偏差的地方。所以这也是在考验投资人自己的能力和水平。

第二点，我觉得特别重要的是：AI 给你提供答案时，它最主要依赖的是对你提问的理解，也就是你输入给它的 prompt 和它所接收到的语言信息。

但语言本身是很复杂的。同一句话，在不同语境、不同上下文下，可能有完全不一样的意思。

比如我们投资 ABC 有一期聊到，选基金经理时，可以关注一个现象：很多基金经理会投资自己管理的基金，而且从历史表现看，这类基金经理整体上会比不投自己基金的人表现更好一些。

后来就有一个听众来问，说 TA 想知道中国有多少基金经理会买自己管理的基金，于是 TA 让 AI 去查。AI 给 TA 的答案是：16 个基金经理。

然后 TA 把这个数字拿来问我们，说：「这个 16 对不对？」

我当时就说，这个数字肯定不对。因为我们知道，真实情况大概是有 60% 左右的基金经理都会投资自己管理的基金。中国一共有上万只基金产品，基金经理人数也很多，所以 16 这个数量级明显就不合理。

为什么会这样？因为当 TA 问「有多少基金经理会投资自己管理的基金」时，大模型很可能理解成了：「你是不是想让我帮你列举一些例子？」

于是它就去搜，搜到了 16 个明确公开可见的例子，然后就把它们返回给你。对它来说，这已经是一个很努力的回答了。

但实际上，提问者真正想知道的，可能是「大概有多大比例的基金经理会这么做」，而不是让它帮忙罗列名字。

所以说，一旦语言理解发生偏差，它给你的答案就可能和你的真实意图完全错位。

*Amiee*

这个我也特别有感触。我最近在和 AI 交互的时候越来越明显地感觉到，我必须非常清楚地描述我的意图，以及这个意图背后的上下文。

有点像刚认识一个人时，你不能上来就丢给它一个问题。你得先告诉它 ：我是谁、我为什么问这个问题、我的背景是什么、我希望得到什么样的帮助。

如果这些都不说清楚，就像您刚刚那个例子一样，它可能会给我一个并不是我真正想要的回答。

而且我觉得这件事很有趣。因为即便两个投资者问的是同一个问题，比如「我应该怎么搭建自己的投资组合」或者「我该怎么开始投资」，但 TA 们背后的意图可能是完全不一样的。

比如 Amiee 问这个问题，可能是因为我看到朋友赚钱了，我害怕错过机会，想赶快冲进去；而您问这个问题，可能是真的想从长期配置角度系统搭建一个投资组合。

所以，表面上看，AI 收到的是同一句话，但如果背景信息缺失，它只能给你一个平均化的答案，而这个答案未必真正匹配你的需求。

*陈鹏*

对。所以我觉得这里可以给个人投资者一个特别重要的建议：

你的意图，比 AI 的回答更重要。

在问 AI 之前，先问清楚自己：我为什么要问这个问题？我真正想知道的到底是什么？

然后，带着这个意图去和 AI 交互，把那些关键背景信息也一并告诉它。只有这样，AI 才有可能给出更高质量的回应。

*Amiee*

没错。其实这个点，我之前也专门请教过我们有知有行的产品经理四火。因为他平时研究 AI、和 AI 交互也很多。

我当时跟他说，有时候我看到 AI 给我的回答，总会觉得哪里怪怪的，但又说不上来。

四火就跟我说：「你觉得怪怪的，其实是一个非常好的信号。」

虽然 AI 很难一次性给出一个既适合你、又面面俱到的答案，但你完全可以抓住这种「不对劲」的感觉，继续追问它。

因为这种感觉，其实就是继续深入对话的入口。顺着这个入口往下走，AI 才能和你一起挖出这个感受背后的真正问题。

*陈鹏*

对。所以我们不要过度依赖 AI 一上来就给一个答案，而是应该把它当成一个能够帮助我们进一步思考、进一步反射问题的工具。有点像一个反光板，它可以帮我们照见一些原本没看见的地方。

而且我自己在和 AI 互动的时候，也经常会发现：它回答里那些让我觉得「怪」的地方，未必完全是坏事。

有些时候，是因为它的思路和我的思路不一样。只要我们把该对齐的地方对齐，它反而会补上我没考虑到的维度。

比如我最近在研究一家二级市场公司。它的一季度季报刚出来，股价跌了大概 10%。于是我就让 AI 帮我分析。

一开始，表层的信息其实都分析得差不多了。后来我又回去让它帮我做一些回溯，比如这个公司几年前开始做的一款产品，到现在也还没有完整做出来，而这件事对现在的经营又有持续影响。

这种比较深的东西，我个人感觉，至少以目前的大模型水平来说，它不会主动帮你挖得特别细。它没有那个动力，也没有那个责任去把事情追到最深。

所以，很多时候还是需要你自己不断地给它补上下文。

*Amiee*

那您是怎么驱动它继续往下挖的？

*陈鹏*

就是靠我自己对这个公司的了解。我会继续问它，比如：「你怎么看 7 年前 TA 们提出要做这个产品，后来又不了了之？这件事对现在有什么影响？它反映出的是执行问题、组织问题，还是别的什么问题？」

然后 AI 就会沿着这些思路继续和我互动、往下分析。

最后它给我点出了一个我之前没想到的角度。

我原本更多是在想：是不是管理这个产品的人能力不够，导致东西做不出来；或者管理层在产品方向上做了错误决策。我主要是在能力层面和执行层面分析。

但 AI 在一轮轮互动之后，给我提出了一个公司治理层面的角度。它说：你看，这个公司其实是一个创始人控股很强的公司，创始人的话语权很重；同时，跟 TA 一起创业的这些高管忠诚度也很高，董事会成员很多也和创始人关系紧密。

所以，它更深层的问题可能不只是产品能力，而是创始人的文化偏好和公司治理方式—— TA 可能会觉得，这些老同事跟着我创业这么多年，虽然做错了一些事、执行得没那么好，但大家一路走来不容易，还是愿意继续给 TA 们机会。

但对于投资者来说，你是希望公司能够在关键岗位上做出更优决策的。所以 AI 最后帮我挖出了一个我以前没有特别重视过的点：这个公司可能在治理结构上本身就有一些问题。

*Amiee*

这个特别有意思。

我很好奇，它对公司治理问题的发现，是怎么「生发」出来的？因为你应该没有直接 prompt 它说：「麻烦你分析一下这个公司的治理问题。」

它是在一轮一轮对话当中，自己慢慢点亮了这条路径。

*陈鹏*

对。我当时给它的背景信息是：我观察到这个公司在不同的几个产品上都出现过类似的问题——自己做不出来，后来又想通过外部并购去补，补回来以后又整合不好，过几年就荒废了，然后又去开一条新业务。

我把这两三次类似的现象都告诉了它。

于是 AI 就从另一个角度总结出：如果这种模式不是一次偶发，而是重复出现，那它背后很可能不是单点产品问题，而是组织层面的问题。于是，它自然就延伸到了治理和文化层面。

*Amiee*

我觉得这正好印证了我们前面说的：给 AI 提供充足背景信息有多重要。

当你把这些零散现象一轮一轮地讲给它时，它就能识别出一条重复的行为路径——总是研发失败，总是外部补洞，总是整合不佳。

一旦它识别到这是一个反复发生的模式，它就会开始问：那这个模式为什么总出现？于是就点亮了另一个更深的分析路径。

这反而给了你启发。

*陈鹏*

对。所以这也是我觉得 AI 特别像一个一起学习的朋友的地方。

你给它很多信息，它给你一些反馈；你再继续修正、补充，它再继续提升输出。你自己在进步，它也在跟着你的上下文进步。

最后，人机互动就会逐渐达到一个相对理想的状态。

*Amiee*

您这个例子让我想到四火之前给我的一个建议。

我曾经和他说过，我觉得用 AI 有时候会消磨我的好奇心。很多时候，我问一个问题，它给了我一个看起来还不错的回答，我大概觉得 60 分、70 分也能接受，于是就没有动力继续追问下去了。

但回到我们前面说的，其实那个「答案」本身未必最重要，最重要的是我的意图。

所以当我跟四火说这个困扰时，他给了我一个特别有意思的观察指标：如果你想判断自己是不是在更好地使用 AI，不妨看一件事——你和 AI 之间「有意义对话」的轮数有没有增加。

也就是说，你是不是越来越愿意和它围绕一个问题持续深入，而不是一问一答就结束。

我觉得这个小指标，可能也很适合大家拿来做参考。

*陈鹏*

对，我觉得这个特别好。我自己也有一个类似的建议：大家可以找一个自己非常熟悉的领域，和 AI 做深入互动；同时再找一个自己并不熟悉的领域，也和 AI 做互动。

你会发现，虽然 AI 模型的能力并没有本质区别，但在你熟悉的领域里，你更容易进行多轮深度对话。那个时候，它真的会变成一个亦师亦友的存在。

你可以发现它点亮了很多你之前没想到的东西，而你也能不断帮它补充正确的信息，于是整个互动的价值就会非常高。

但如果是在一个你自己根本不熟悉的领域里，你可能就会像刚才那个「16 个基金经理」的例子一样，直接接受了一个其实完全错误的答案。

所以说，最后还是回到了我们一开始讲的那件事：人的思想和判断在，AI 才有价值；人的能力在，人机互动才能真正变成高质量协作。

也希望大家在用 AI 辅助自己参与市场投资的同时，能够更清楚地理解它的边界和特质，然后找到真正适合自己的参与方式。

最后我还想提醒大家一点：AI 目前并不是一个能够承担责任的主体。

从投资顾问的角度来说，一个专业人士给出建议，是要承担受托责任的。就像医生给病人开药、做诊断一样，背后是有责任约束的。

我们不是说专业人士就不会出错，但至少 TA 应该尽心尽力，把情况尽量了解清楚，给出一个最靠谱的建议。

但 AI 目前并没有 build in 这样的责任机制。

所以，如果投资人要和 AI 做很多互动，最后一定要意识到这一点：AI 并不天然承担对你的受托责任。它只是根据文字指令与你互动而已。

这也是为什么，在金融和投资领域，AI 到目前为止依然更多只是一个辅助工具，它还不能取代一个真正好的投资顾问。

从责任关系上来说，它依然需要和人结合。至少在当前阶段，我们还离不开那个真正承担责任、具备受托义务的人。

*李罗丹*

其实这就是很多本质性的东西。

而这些本质性的东西，不管技术怎么发展，最终都不会变。每一轮技术浪潮来了，我们都会短暂地忘记这些本质；但最后又总会重新回到它们。

只不过，每一轮技术的发展，都会让这些本质变得更加本质。

*Amiee*

我觉得最后这一点特别好，也特别有启发。

那感谢陈博士，也感谢罗丹老师分享了这么多来自一线的洞察。我们今天先聊到这里，谢谢大家。

*陈鹏*

好，谢谢大家。也谢谢罗丹，今天学到了很多。

*李罗丹*

谢谢大家。

*Amiee*

和罗丹老师聊完，我印象最深的一句话是：最能体现 AI 价值的地方，都围绕着使用它的人。

我一直很喜欢「AI 是一张静默的智慧之网」这个形容。它有充足的智能，但它没有目的，也没有去处。人不发问，它就不会回答。

而我虽然没有 AI 的智力，但我有目标，有驱动力。

AI 有智力，但没有方向；我有方向，但需要智力。这不正好互补吗？

如果我们可以更好地协作，也许真的能组成一个还不错的、像罗丹老师说的那样的「硅基 + 碳基」作战单元。

而关于怎么更好地协作，节目里提到的「给 AI 提供充足的上下文」，也给了我很大启发。

以前我总是会非常笼统地描述我的问题。比如，我会直接问 AI：「一只股票涨了很多，我还能不能买？」

但后来我意识到，这个问题其实只是冰山一角。水面之下，还有很多隐藏信息。

比如，我当时之所以问这个问题，可能是因为我看到很多人买这只股票都赚钱了，我很怕错过这个机会。

但为什么我会害怕错过这个机会？

为什么我明明知道，作为一个个人投资者，投资个股的胜算并不大，却还是希望在短时间内快速获得一笔收入？

是不是因为我心里有某个目标，一直没有被很好满足？是不是因为我没有提前为这个目标留出足够的预算，所以才会本能地想要依赖一笔意外之财去弥补它？

如果是这样的话，那我有没有可能换一种更稳妥的方式？比如，通过心理账户，专门为这个目标做规划。

我发现，当我更清楚、更具体地表达自己的诉求，并向 AI 提供背景信息的时候，我其实也在同步梳理自己：我为什么会问出这个问题？我当时处在怎样的环境里？我真正的意图又是什么？

就像罗丹老师说的，AI 是我们的放大器，是我们想法的回声壁。

而和 AI 更好地协作的过程，或许也是一个——不管在投资上，还是在生活里——更了解自己的不错通道。

感谢你听到这里，我们下期节目再见。拜拜。

## ✒️本期重点

**AI 的价值取决于使用它的人** ：AI 本身没有目标，它能发挥多大作用，取决于使用者是否能提出好问题、提供足够背景，并持续校准它的回答。同一个问题，不同的人带着不同的经验、意图和判断框架去问，AI 被「点亮」的路径也会不同。

**🤖人机协作小贴士：**

- 注意 AI 的能力边界：AI 有迎合倾向，可能会顺着用户的偏好回答，从而放大原有的情绪和行为偏差。它也更擅长处理被文本化的显性知识，而经验、直觉、现场感等缄默知识，很难被它真正习得。
- 提问者的意图比 AI 的回答更重要：提问前，先问清楚自己：我为什么想问？真正想知道什么？越清楚地描述目标和背景，AI 越可能给出贴近真实需求的回答。
- AI 没有受托责任：AI 在辅助投资决策时，并不为结果承担后果。目前，它只能是辅助工具；真正的判断、选择和责任，仍然需要由人来承担。  


**👀 猜你想看**

[E185 对话微软中国CTO韦青：不是人类没有未来，是活成机器的人类没有未来](https://youzhiyouxing.cn/n/materials/1918)

[E45 孟岩对话李继刚：人何以自处](https://youzhiyouxing.cn/n/materials/2141)

[E52 和大卫翁聊聊：面对机构投资者，个人真的毫无胜算吗？](https://youzhiyouxing.cn/n/materials/2167)

## 🌟 本期嘉宾

**李罗丹：** 讯兔科技创始人，曾主导头部资管机构数字化研究，现专注打造 AI 投研助理 Alpha 派，产品服务近 9 万机构用户。

[**陈鹏博士**](https://youzhiyouxing.cn/n/materials/1037) ：曾担任 晨星 全球资产管理部总裁，管理过上千亿美元的资产；也曾是德明信基金的亚太区首席执行官。

## 🎺 创作团队

制作｜ 有知有行

嘉宾｜李罗丹、陈鹏博士

主持｜ Amiee

声音设计｜ 甜食

**感谢袁园、四火、港港，以及志愿者步枫、饭粒、小马对本期节目的协助。**

  
本文所载内容仅供参考，不构成任何投资建议。市场有风险，投资需谨慎，投资者应独立作出判断。本文所涉基金及/或基金投顾组合相关数据来源于基金销售机构及/或基金投顾机构公开披露信息。有知有行提示您，基金及基金投顾组合的过往业绩不预示其未来表现，为其他客户创造的收益并不构成业绩表现的保证。详见 [《免责声明》](https://youzhiyouxing.cn/agreements/ARTICLE_DISCLAIMER) 。如转载引用，请遵守 [《转载声明》](https://youzhiyouxing.cn/agreements/ARTICLE_REPRINTED) 。

---

## 系列导航

- 上一篇: [E53 拥有很多钱，才能考虑做资产配置吗？](http://youzhiyouxing.cn/materials/2176?format=md)


## 相关阅读

- [E53 拥有很多钱，才能考虑做资产配置吗？](http://youzhiyouxing.cn/materials/2176?format=md)
- [E52 和大卫翁聊聊：面对机构投资者，个人真的毫无胜算吗？](http://youzhiyouxing.cn/materials/2167?format=md)
- [E51 都叫「沪深300」，银行、券商、理财 App 里卖的是同一个东西吗？](http://youzhiyouxing.cn/materials/2157?format=md)


## Citation

> 「E54 和罗丹聊聊 AI：从助理，到师徒，再到另一个你」，有知有行，有知有行，2026-05-11。
> http://youzhiyouxing.cn/materials/2183

---

*来源: [有知有行](http://youzhiyouxing.cn) · [更多内容](http://youzhiyouxing.cn/llms.txt) · [完整索引](http://youzhiyouxing.cn/llms-full.txt)*
