如果俞敏洪在南极向新东方全体员工发全员信前,问一遍市面上主流大模型,那么……

李笛说,如果俞敏洪在南极向新东方全体员工发全员信前,问一遍市面上主流大模型,那么……
结局没有任何改变。
两周前,李笛突然宣布,创办新公司Nextie(中文译“明日新程”),做“认知模型”。也就是让大量异构的智能体,一起讨论、辩论,最终帮人做决策,或者更好地帮人完成各种疑难的任务。李笛是“小冰”创始人,曾开发第一代情感聊天AI“小冰”。
李笛举例,如果当时有个智囊团陪在俞敏洪身边,不仅会看信的文本表达,还会帮他从管理层、员工、网民的不同立场,一条条捋,信发出之后可能出现的情况,认知模型就扮演智囊团的作用。
他解释,当下主流的推理大模型,让人使用知识的成本大幅度降低,从而实现了知识平权。但在OpenAI、Anthropic、Google DeepMind 等机构内部对用户日志的分类中,一个反复出现的结论是:相当比例的高频提问,并非知识查询,而是“决策辅助型问题”,如选哪个老板、是否应该离婚……人在这些关口一旦走错,成本很大。
明日新程希望用“群体智能”产品帮人决策——成百上千的AI智能体,帮助用户快速把一个问题在不同认知侧面掰开,从而尽可能避免认知盲区。
“这就像一个智囊团。智囊团不是老师,不教你智慧,而是帮你在不提高自身能力的情况下,看到更完整的认知结构,从而实现认知平权。”
从“小冰”到明日新程,李笛做的是同一件事“造人”。过去,造提供情绪价值的“人”,现在,他想造基廷老师(死亡诗社)、西恩教授(心灵捕手)那样,在认知层面帮助他人的“人”。
目前,奇绩创坛参与了明日新程的投资。
声明:访谈对象已确认文章信息真实无误,铅笔道愿为其内容做信任背书。以下为访谈实录。
铅笔道:李老师,看到你也出来创业了,很意外。
李笛:这个问题挺有意思的。你要问我,做小冰算不算创业?在我自己心里,其实2020年之后,我就已经是彻底在创业了,只是外界可能觉得我是最近才“开始”。这是一个认知差异。
行业里其实有一个共识:这轮大模型的发展,从GPT-3.5开始,很多能力是可以预期的。真正让人意外的,是思维链(Chain of Thought,即AI模拟人类思考的推理过程)。
思维链本身是一个比较模糊的东西,更像是“想了一下”,有一点注意力的痕迹。再往前走,才是推理模型,它开始变得结构化、有体系、有因果关系。再往前,才是认知模型——它的思考过程会更完整、更系统。
这是我认为,大模型从过去到现在,再到未来的一条主线。
铅笔道:新公司想做什么?
李笛:其实和我过去一直在做的事情,本质上是同一件事——“造人”。
我们不是在造 AGI,也不是造打工的工具人,而是希望造一个在各方面能力接近人、能给人提供支持的存在。
2013 到 2017 年,我们造的是有情感、能提供情绪价值的“人”;2017 年之后,我们做的是 AIGC,希望 AI 能在情感之外,再提供内容、知识和服务。但那个阶段,认知服务的技术条件还不成熟。
后来我们发现,一群“人”的价值,大于一个“人”。群体在认知上的辅助能力更强。
在今天这个大模型时代,我认为最重要的,不是 AIGC,也不是某个具体技术点,而是能不能创造一群“有认知的存在”,去帮助人弥补认知盲区。
很多关键决策,其实都和认知有关。你能不能补上自己的盲区,往小了说是避免损失,往大了说,可能会改变结果。
这个世界上,几乎所有人都需要补认知盲区。连俞敏洪都需要,更不用说普通人。
所以我认为,这是这轮大模型在社会意义上非常重要的一件事。当然,它也会有商业价值。小冰一直在做“造人”的事情,只是现在,它的名字叫明日新程。
铅笔道:听说小冰的核心成员继续加入新团队?
李笛:其实我并没有离开小冰,我现在还是第二大股东。
其次,这个团队从 2014 年开始,是我一步一步建立的,我们做的事情本身就是延续性的。
这件事一是没做完,二是还有太多新的可能,三是它就是这个时代最重要的事情。
也许它没有那么“世俗意义上的商业化”,但如果有一天我老了,回头看,我在人类的情感、内容和认知上,真正努力做过一些贡献,我会很骄傲。我的同事也是一样。

Nextie创始人李笛,希望通过群体智能,实现认知平权。
铅笔道:你们很早就在关注跟认知有关的东西?
李笛:对。2017年,小冰已经是生成模型了。我们在生成过程中发现一个现象:模型会突然冒出一些“念头”。
当时我们甚至做过一个模式,叫“心想模式”,它一边跟你对话,一边输出它“脑子里在想什么”。但那个阶段,这种“思想”是非常不稳定、不一致的。
直到GPT-3.5,思维链开始变得重要。那时候我们在一些项目里比如LangChain(一个开源框架,允许AI开发者将大语言模型与外部计算和数据来源结合起来),已经是主要的贡献者之一。到 2023 年,我在日本做大模型训练,Hugging Face排名前6的模型里,有3个是我们做的,另外三个是Meta的。
那个时候,我觉得证据已经足够充分了——我要做推理模型。但在原来的团队里,我没有这个决策权。
不过在我看来,推理模型本身并不是终点。等认知模型出来以后,推理模型其实只是一个中间版本。这不是一个“新机会”,而是这轮大模型真正的主旋律。
铅笔道:所以你决定直接去做认知模型?
李笛:对。为什么认知这么重要?你可以从智能体的发展看得很清楚:一开始大家做智能体,很快就发现,先思考、再行动,比直接行动,效果要好得多。后来又变成边思考边行动,效果会更好。
你会发现,“思考”这件事情,对完成任务、提供洞察、辅助决策,影响非常大——无论是人还是模型,都是一样的。
但现在的推理模型,有一个问题:它的“思考”,很大程度上来自具体领域知识,和领域本身耦合得太紧。它不太容易把认知抽象出来。
举个例子,如果我是围棋高手,我所有的认知都来自围棋;但如果我能把围棋里的认知抽象出来,那在商业竞争中,我可能也会是一个不错的决策者。这就是我们想做的——把认知能力进一步抽象、泛化。
铅笔道:刚才说,推理模型是认知模型的中间版本,怎么理解?
李笛:这和大家对“推理”这个词的理解有关。假设我们说的推理是reasoning,它核心是因果关系,比如“因为A,所以 B”。相比思维链,它更结构化、更可靠,但它的体系性还是不够强。
而认知(cognition),一定具备泛化能力。一个完整的认知SOP(标准操作流程),包含你如何拆解问题、分析问题、解决问题,以及如何验证你是否真的解决了问题。这是一套带有“认知脚手架”的工具体系。
认知还要求高度自洽。你不太可能一边完全按照墨菲定律行事,一边又毫无冲突地使用另一套相反的认知模型。但在很多推理模型里,这种自洽性是模糊的。
还有一点很关键:认知是可以被追溯的。你可以知道一个观点是怎么形成的,而推理不一定。
铅笔道:为什么“可追溯”这么重要?
李笛:因为当模型开始给人建议、给人决策指引的时候,如果你不知道它这个判断是怎么来的,那是非常危险的。
比如我告诉你“你应该离婚”,这个决策从哪里来?如果你不关心来源,只是照做,那就出问题了。
我们内部有一个例子,就是俞敏洪那封公开信。几乎所有大模型都会告诉他“没问题,可以发”,但那其实会把他带进沟里。
还有一个区别是:推理往往依赖用户给定的需求,而认知不完全依赖。认知有可能发现用户自己没有意识到的问题。
俞敏洪不太可能在问模型时说:“你帮我看看,一线员工会不会反感?”如果他能问出这句话,说明他已经意识到了。但现实是,他不知道。
这正是认知模型有可能做到、而推理模型很难做到的地方。
铅笔道:直观理解的话,是不是说有很多个大模型,同时提供解决方案?
李笛:恰恰相反,如果你只是用很多个大模型,每一个大模型驱动一个智能体,比如用 GPT 驱动一个,用另一个模型驱动一个,看起来是多个智能体,但结果其实很有意思。
你会发现,这几个智能体差别并不大。因为它们虽然基于不同的大模型,但训练数据高度相似,本质上是“同构”的。你可以把它理解成,我自己跟我自己辩论。这样的辩论当然能发现一些表层漏洞,但我自己的盲区,我是弥补不了的。
所以问题不在“认知模型本身”,而在智能体的框架层(连接大模型与真实世界任务的中间层)。关键是要让不同智能体的认知是异构的,而且要让它们在认知过程中,始终和自己的认知特征保持一致,只有这样,它们才能真正互相弥补盲区。这才是群体智能的价值所在。
铅笔道:所以群体智能并不是“大模型叠加”?
李笛:对。群体智能这套理论,和大模型本身的技术路线,其实是两套完全不同的理论。
我们做的事情有两个技术基石:一个是来自大模型的认知模型;另一个是来自人类社会的群体智能理论。
群体智能解决的是一个问题:在多个智能体发生认知碰撞的时候,怎样让这种碰撞是有效的。
为此,我们系统研究了1800年到2020年之间,超过220年的人类群体智能相关论文,发现了很多反直觉的规律。
很多人会以为,群体智能一定是高度去中心化的。但我们发现,在这220年里,人类群体的智能“节点”确实在增加,但整体却呈现出熵减(混乱减少、变得更有序)趋势——也就是说,它会向少数关键节点收敛。这和很多人理解的“去中心化智能体”是完全相反的。
如果你把一个研究任务,平均分发给 100 个专家智能体,这种设计在大多数情况下是错的。它会让系统变得复杂、难以收敛,最后只会得到一个冗长但价值不高的综述。
我们在做情感模型的时候,是以人类为蓝本;在做认知模型的时候,同样是以人类为蓝本。人类作为一个迭代了上万年的群体智能系统,虽然速度慢,但在认知结构上,往往是最优解。
铅笔道:还是没太理解。换句话说,落到产品,是谁在给用户提供帮助?
李笛:我先说结构,它由两层构成。底层是一个认知模型,你可以暂时把它理解成一个比较强的推理模型;在它之上,是一个多智能体框架。在这个框架里,我们利用群体智能的方法,让智能体之间的形成认知层面的异构性,再进而产生有效的认知碰撞。
这些碰撞形式包括辩论、挑战、反思、投票等等,但关键不是形式,而是它是不是真实发生了认知碰撞。
很多时候,如果你让 AI 去“扮演角色吵架”,那其实是在演给你看。人类也是一样的——老板开会,大家假装有不同意见,但其实是无效讨论。
我们要避免这种“表演式辩论”。
在这个基础上,就可以形成不同类型的群体。比如我们有一个由75个智能体组成的研究团,它的目标是帮助用户做深度研究。
你可以把它对标现在的Deep Research。Deep Research很擅长旁征博引,但本质上仍然是综述;而真正的研究,需要新的洞察,以及洞察之间的碰撞,才能产生新的理解。
我们人类天生是异构的。两个人,即便学习的知识和成长的过程几乎一模一样,他们的认知也是差异化的。所以我们常常会忽略,智能体实际上天生是同构的,如果你什么都不做,他们实际上是同一个人。所以,搭建多智能体框架的时候,异构反而是最重要的环节。
铅笔道:能否来几个应用场景?
李笛:还有一个非常高频的场景,叫 ask for guidance,也就是请求决策。
从个人生活到工作决策,几乎每天我们都在面对选择:选哪所学校、选哪个工作、选哪个合作对象。查理·芒格说过,大多数决策失败,并不是运气问题,而是认知偏差。
问题是,人往往不知道自己不知道什么。
OpenAI之前统计过用户的提问分布,所有场景加起来,大约有30%的问题,本质上都是这种“难题”。这类问题通常没有明确答案,而是需要判断、权衡和决策。
这些问题的价值,远高于“喜马拉雅山有多高”这种明确的知识型问题。我们做的,就是解决这些难题。
铅笔道:这类问题,决策错误的代价很大。怎么确定群体智能给出的建议是可靠的?
李笛:我们主要看五个维度。
第一,视角完备性。你的回答有没有覆盖足够多的关键维度,有没有盲区。比如在情感问题里,很多用户的最终关注点,会从原本的情感问题收敛到“财产”上。但这个维度,可能用户在提问里并没有提到。这类关键变量或风险只能通过多智能体的认知碰撞被发现,然后才能进一步给出真正有价值的建议。
第二,隐含诉求满足度。用户几乎不可能一次性把问题说清楚。群体智能能不能在讨论过程中,把这些隐含的问题识别出来?
第三,辩证深度。是停留在推理层,还是能追溯问题的本质?识别出核心要素的二重性,比如优势在哪种情况下会变为劣势,如何取舍?
第四,落地实操性。不止要识别核心矛盾,还要做出可执行的预案和对冲策略。很多单一大模型的建议,看起来全面,其实像鸡汤,执行性很弱。
第五,决策可解释性。结论背后要模拟数据、多视角交叉验证,让结论具有不可证伪的坚实度。
我们用这五个维度,做大量盲测评估。在整体分布上,我们的群体智能系统,明显优于任何单一大模型。而同构智能体,往往还不如它所依赖的基础模型。
铅笔道:看过一种说法,人改变命运要从改变认知开始。
李笛:我觉得这是一个特别困难的事情。
我们过去提高认知,主要靠读书、学习方法论。但问题是:
第一,提升认知本身非常耗时耗力;
第二,即便你提升了,也仍然有大量盲区;
第三,它绝不是一蹴而就的。
我们做的不是“教你提高认知”,而是通过群体智能,快速把一个问题在不同认知侧面展开给你看。
这就像一个智囊团。智囊团不是老师,不是教你智慧,而是帮你在不提高自身能力的情况下,看到更完整的认知结构。
你要问我“人类怎么提升认知”。人类的方法,真的和 AI 很不一样。人类能够从知识的学习和训练中习得认知,AI也可以。但人类能把这些认知从相对应的知识中解耦、抽象出来,去泛化地解决更多问题。推理模型在这方面却仍然做得不好。
铅笔道:可以理解为,从知识平权走向认知平权吗?
李笛:没错,是认知洞察能力的平权。
这也是为什么我一定要to C——这项能力,应该平等地给到每一个人。那一天,我决定开始创建明日新程。
铅笔道:你第一次看到“群体智能真的涌现”的时候,是在什么时候?
李笛:真正打动我的,是我自己的群体智能。
因为我很清楚,每个人都有很大的认知盲区,我也不例外。在面对重要抉择的时候,我会问:我该听谁的?我听一个人,真的可靠吗?
我这个人比较轴,单个人是很难说服我的。但当我看到群体智能给我呈现出一个清晰、完整、可以追溯的结果时,我意识到——这是一个我可以信的东西。
这也是促使我创办明日新程、继续把这件事情做下去的关键时刻。
我更相信一千个案例的统计分布,而不是一个“惊艳样本”。
我的人生里,也因为认知盲区而做过很多愚蠢的决定,甚至包括使我失去了我的小冰。最近我常常在想,如果我很早就能有现在这样的服务,也许就能够避免那些损失。
铅笔道:今天在中国,甚至在全球,和你们做类似事情的团队还有哪些?
李笛:关于模型的核心是“认知”这件事,几年前其实并不是共识。
2023 年大家开始谈 CoT 的时候,这件事也谈不上完全共识。但到今天,如果还不认为“认知是模型核心”,我觉得就有点脱节了。无论是Kapathy,还是 Ilya(“理解就是预测,智能是对世界的高效压缩”),我看很多人都读过他们的访谈,那应该知道,如今认知是模型核心这一点正在成为共识。
所以我个人认为,认知模型之所以重要,是因为这是每一家大模型公司都应该重视的事情。
当然,大公司还有其他关注点,比如 MoE、多模态、更大规模的预训练、更好的强化学习,这些都很重要。但在我看来,最关键的主线,还是从 CoT,到推理模型,再到认知模型。
从另一个角度看,今天如果你不是做重多模态,训练模型对算力的要求,整体上反而比早期低;而且,真正懂训练模型的工程师和研究者数量,是大幅增加的。
训练方法这件事,已经变成“大家都可以做”的事情。所以我认为,每一家大模型公司都应该、或者已经在做认知模型。
但这只是问题的一半。另一半,是多智能体框架背后的群体智能。
这也是为什么我整体上并不太担心所谓的“竞争”。重点不是“只有我看到这个方向”,而是这个方向本身就应该被大家看到、被反复尝试,创新才会发生。
铅笔道:如果产品明年推出,会优先解决哪些用户最关心的问题?
李笛:我做的主要是智能体的框架层。原因很简单:我认为在大模型时代,未来所有丰富多彩的应用,最终都会收敛到一种最小单元——智能体。
如果你回到 2023 年初,会发现当时很多人认为:产品就是“下面一个模型,上面一个交互界面”,直接把模型㨃到产品里。
后来大家发现,肯定不是这样。它会收敛到多智能体,而且是异构的多智能体。
就像移动互联网时代,底层有多点触控等技术,但真正让应用爆发的,是App的框架层,而不是底层技术直接变成产品。从来没有过一个时代,是应用直接收敛到底层技术上的。
在大模型时代,我认为收敛到的最小单元就是智能体,而且一定是多智能体、异构的、多智能体之间基于群体智能发生认知碰撞。
这就是我在做的事情。你可以理解为,在我们的框架之上,上层应用可以非常明确地“套壳”,但这个壳不再是套大模型,而是套智能体系统。
铅笔道:呈现形式会是对话机器人吗?
李笛:不一定。
人和人是怎么协作的:有时候是在微信群里协同;有时候是会议;有时候是共同编辑一个文档。你把其中一部分人换成智能体,上层应用的形式本身是非常开放的。
铅笔道:对商业化是怎么考虑的?
李笛:我现在更关心的是,如何通过这个智能体框架,构建一套认知数据体系。
认知数据和传统知识数据完全不一样。知识数据是切片化的、静态的页面;而认知数据是过程型的。
比如我们今天采访,这不是一个页面,也不只是会议纪要,它前后都有连续性,是一个完整的认知过程。这种数据对于训练模型、对齐认知碰撞效果,非常关键。
所以商业化我并不是特别担心。如果你构建的是面向未来的基础设施,而上层应用又是可快速演化的,那商业问题反而不是最难的。
铅笔道:你之前做小冰的哪些经验是可以复用的?
李笛:很多。
第一,我们 2017 年就在做生成模型,当时其实已经有一些“模模糊糊的 CoT 雏形”。这让我们对新技术演进中真正关键的部分非常敏感。
第二,多智能体碰撞这件事,在上一个时代其实已经存在。2018 年开始,我们就在做多智能体,只不过当时不是基于大模型。
第三,是对隐含诉求的理解。用户的隐含诉求,不只是没说出口的理性需求,还包含大量情绪层面的期待,比如共鸣、被理解。
所以对隐含诉求的判断,绝不能只基于任务本身,而要放在一个更大的维度里看。这一点,是完全可以复用的。
铅笔道:回过去看这三年,最重要的节点是什么?创业者最该关注哪些?
李笛:我可能比较极端,我认为最重要的就是三个节点:
第一,CoT;
第二,推理模型;
第三,接下来的认知模型。
这是我认为的大模型时代最强的三次“重音”。
当然,中间也有很多令人激动的时刻,比如多模态、AIGC,但在我看来,它们不是敲得最响的那一下。
联系创业者
进入个人中心-联络人,即可查看请求结果
您还未认证身份,暂时无法和ta联系!请尽快前往个人中心进行创投认证哦。