圈内人长文解秘,毫不意外的梁文锋

圈内人长文解秘,毫不意外的梁文锋

长期征集

日子很难,生活不容易,每个人都有自己的苦,有苦说不出的感觉,受苦的人最懂。

和吃苦相比,有苦难言,无人问津,可能比苦本身还难受。

重生之后,叶檀老师变了很多,变得能吃苦,吃自己的苦,吃别人的苦。

她说,有苦我们一起分担。

每周六,叶檀老师都会亲自回复,并在公众号上发出,有苦难言的朋友,如果你也想和叶檀老师倾诉,把你的故事,发送到邮箱yetanbusiness@163.com,叶檀老师看到,一定会回复。

记住,这世界还有人,关心你,在乎你,理解你。

文/马贤亮

为什么一家AI量化公司引爆了AI大模型?很多人好奇、很多人在追问,为什么创造这个奇迹的不是美国的或中国的其他互联网大厂?

我是量化模型总设计师,经营着自己的对冲基金技术公司。这篇文章以量化投资圈内人的视角探寻DeepSeek魔幻奇迹背后的缘由。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

我与幻方的老大梁文锋总不认识、无交往;通过幻方的徐总一位浙大竺可桢班同学,在微信上有交流,算是间接认识。他们的创业过程、技术路线和产品表现等,多年来随时关注。

在量化技术路线上,我们主要对标英国Winton(元胜)公司和杭州幻方公司,他们是我们学习和比较的对象;我们和他们的技术路线可能很接近,都是用机器学习的方式来构造复合的、多维综合的因子模型,都不依赖个人主观做交易、也不依赖某个策略研究员;都是机器生产因子,机器检验因子;区别在于,幻方在股票权益市场,我们在期货衍生品市场。

别轻易指责互联网大厂。

在看到DeepSeek展示的魔幻奇迹之后,大部分国人为之欢呼雀跃。也有人在知乎上追问:为何腾讯、阿里、华为、百度等大厂没有推出DeepSeek这样的颠覆性产品?

切勿轻易指责互联网大厂AI部门的组织能力或创新能力。大厂AI研发部门的核心人员,大多是参加高中数学物理竞赛的顶尖学霸,或者是顶级名校中的佼佼者。达不到这个层次的人,可能在大厂AI部门只能从事一些辅助性的工作。

这些大厂核心人员,每个都是天生自带马达、自我驱动的性格,怎么会被“组织僵化”束缚住呢?一定是事情太难、创新太难,没做出来而已。

圈内人长文解秘,毫不意外的梁文锋

幻方率先突破,有三个原因

为何是幻方率先突破?我先说三点结论。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

第1点,技术和经验相通。AI量化和AI大模型, 背后的技术和经验是相通的。

第2点,历练和经验更多。

股票市场的金融数据,信噪比(S/N)极低;AI量化公司长期与这样的数据做斗争;幻方从2008年开始做量化研究,过去十几年,他们将数理统计方法应用到金融量化模型、应用到交易实战,这一过程的痛苦和历练,可能比互联网大厂的工程师们多很多很多年;痛苦更多则历练更多;历练更多则经验更多。

第3点,梁文锋本人。

幻方和DeepSeek的人都相当聪明,但不能说显著超出OpenAI、Meta、Grok、Microsoft、和Google的人才。幻方实现AI大模型领域的魔幻创新,我以为最最核心的理由是,梁文锋本人16年来一直在量化模型的第一线,他的痛苦最多,历练最多。痛苦、历练、经验,加上工程创新的雄心,成就了DeepSeek奇迹。

圈内人长文解秘,毫不意外的梁文锋

梁文锋是个多方位的“一线老板”

从数学难易程度上讲,数理统计不如代数几何那般复杂和抽象,但也不是计算数学那般简单。

人工智能中要使用许多种数理统计工具(算法);按照贝叶斯认知论,从了解、到理解、到领悟、到灵活运用、到娴熟驾驭,不是能轻易能够跨越的,需要反复尝试、足够的时间和足够的经验。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

在初高中阶段,大家学习初等数学和基础物理,这些基础知识似乎能一通百通。所以,普通人很可能以初高中的视角来分析AI大模型领域的创新,以为只要辛苦一点、勤奋一点,就能做出创新成功;如果没有创新成功,就简单归因到大厂组织僵化或创新无能。

断非如此。

我来举个例子。比如,CVPR是(IEEE)计算机视觉领域的“学术奥斯卡”,在2024年收到的论文投稿量为11875篇,最终只录用了2719篇,论文接收率仅为23%;并且,2024年CVPR官方认证的杰出/优秀论文总共只有10篇,是年投稿量的1‰。可见,创新研究很难,有大价值的创新更是难上加难,怎么可能是一通百通呢?

再谈谈梁文锋的经验。

梁文锋在接受暗涌Wave主笔于丽丽的专访时说,2012年伊尔亚(Ilya)提出AlexNet,使沉寂多年的人工智能技术研究重新苏醒,而幻方从2014年就开始同步跟踪,准备将AI应用到量化交易中。

他们的思想准备很早,行动也很早。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

更重要的是,按于丽丽在文中的描述,梁文锋总是一个“每天看论文,写代码,参与小组讨论”、“兼具强大的infra工程构架能力和模型研究能力、既可从高处做精准判断,又可在细节上强过一线研究员、拥有令人恐怖的学习能力、能调动资源、完全不像一般意义上的老板”。

梁文锋说,“外部(外人)看到的是幻方2015年后(光彩绚丽)的部分,但其实我们做了16年(从2008年开始)。我们经历了一个漫长的积累过程(不都是坦途)。幻方有很强的技术和创新基因,幻方的成功在某种程度上增强了我们对技术驱动型(大)创新的信心。”

我听朋友说过,幻方的团队早期也经历过毕业就创业、创业创业没钱了;没钱了就解散、后来有点钱了,再聚在一起再创业的过程。没有笃定、没有爱和痴迷,是不可能这么做的。

当然,DeepSeek的成功,一定是这个聪明团队整体的成功。但梁文锋作为领军统帅,有16年漫长的积累过程,在长期处理复杂问题、长期学习实践中沉淀出的经验,包括组织高密度人才实现有效创新的经验,才是DeepSeek可以组队不到2年、就拿到大结果的第一原因。

在DeepSeek_V2, _V3, _R1, 和Janus Pro等公开的论文中,我看到了几处金融量化模型常见的处理手法

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

比如,DeepSeek_V2创新提出的细颗粒度MoE混合专家模型,通过提高专家专业化程度,减少了知识冗余、降低了训练成本、减少了推理计算量;这个技术思路,就可类比于在量化因子模型中,不是用某个因子(专家)来解释整体A股5300支股票的大截面,而是用特定的因子来解释特定二级行业的股票子截面,这样的因子就是细颗粒度因子。

(MoE混合专家模型并不是DeepSeek首先提出来的。谷歌的GShard_MoE 将分布式切片训练框架(GSha rd,Google Sha rding)与混合专家模型(MoE)做结合。但DeepSeek“聪明地、灵巧地”提出了细颗粒度MoE方法,产生了显著的效果提升

又如,DeepSeek在Janus中创新引入统一的自回归架构,我看到了金融时间序列中ARMA、ARIMA、GARCH等自回归模型的影子;

再比如,Engle(诺贝尔经济学奖2003得主)在 2002 年提出了多标的动态条件相关系数模型 DCC-GARCH(2002),将多标的时间序列的波动性特征,纳入统一的多变量波动率模型,这是将不同标的的特征做时间序列上的对齐(Alignment)或同步(Synchronization)的(建模)方法。

而Janus中引入的统一自回归架构,也是以时序生成为范式(也就是时序对齐,比如将眼神、面部表情、口型、声音、肢体动作等多模态做时序对齐),这就突破了传统多模态模型在生成连贯性上的瓶颈、在模态交互深度上的瓶颈、和在任务泛化性上的瓶颈。

Janus的这种架构创新,提升了现有任务性能,为统一的多模态生成模型提供了全新的技术路线。

上述这两个不同领域的模型,我认为思想方法是类通的。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

跨领域可以找到灵感,有时候,在A领域很常见的数理方法或思路,B领域的研究人员很难想到,即便灵光一现想到了,多半将信将疑,未必敢投入精力做工程验证。

如何恺明(ResNet创造者)在香港中文大学的一次讲座中提到的,“科研(创新)中95%的时间是令人沮丧的”。他的原话是,“研究总是充满了挫折、情绪和沮丧,它与你能想到的所有负面词语有关。这就是现实(真实情况)。如果你没有经历过这些,说明你没有做出最好的研究。我的生活就是这样:我可能95%的时间都很沮丧,而剩下的5%时间(是在想法完成后)花在完成论文上。然后进入下一个(沮丧)周期。”

我本人做量化策略研究的感觉大致如此,很多次有新的策略想法,想到的时候热血澎湃,设计的时候理顺复杂逻辑的过程让人煎熬,看到结果也就是最后搞明白的时候,却非常沮丧:“哦,原来是这样啊、我怎么这么蠢、没事先想到这一层呢。”

分析一个创新,可能全球研究者想到了一万条路径;而有经验的领军统帅,能快速pass掉其中的9900条,只在剩余的100条路径上寻找宝藏。这就是经验的价值。

统计学中的各种算法工具,可以类比为数学兵器,兵器可能有999件,但每一类兵器适用于什么场景、解决什么问题,这个太需要历练、太需要经验、太需要直觉了。

我敢断言,整个幻方量化和DeepSeek的模型团队,身体力行的梁文锋经历的沮丧和痛苦最多,所以他的经验和直觉最多。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

他本科阶段在浙江大学学习电子信息工程,研究生阶段学习信息通信和人工智能,毕业后长期做量化金融模型,从2014年就开始follow人工智能领域的论文,可能在多个领域有深入思辨、有长期经验。

在研究中,找出新方法的人最值得称颂。比如,在DeepSeek-V3中,他们公开的多头潜注意力机制MLA(Multi-head Latent Attention) 方法,是由高华佐(Huazuo Gao)和曾旺丁(Wangding Zeng)这两位年轻人想出来的。

但也要认识到,在研究中提出问题的人、对探索方向拍板的人同样重要。DeepSeek的这组论文,每篇文章都多个创新点。这么高密度的创新,才会让美国AI圈感叹DeepSeek有一群神秘莫测的高人、做出了真正的创新。梁文锋是否刷过2000-3000篇顶刊论文?

回头看互联网大厂的研究探索,过去12年(2013∼2025),他们处理的复杂问题我想到了3类:

第1类,社交网络或电商的智能推荐系统,推荐系统存在明确的“y – x”关系;

第2类,近几年的语言大模型和多模态模型;

第3类,汽车自动驾驶。

第1类问题在10年前还比较有挑战性,但总体并不太难;第2类问题,互联网大厂的研究员也可能才干了3-4年,综合经验当然不如梁文锋;第3类问题当然也很难,特斯拉、华为、小米、地平线、百度等公司在做;可能等道路数据Token积累到100万亿(100T),就可实现端到端L3或L4智驾,这是未来3-5年就可达到的。我认为金融量化模型比端到端自动驾驶更难,这里不展开。

即使中国或美国的互联网大厂有很多的顶尖人才,面对世界上难度级别最高的工程问题,缺少像梁文锋这样跨领域、有经验的统帅;没能率先做出DeepSeek这样颠覆性的产品,是可以理解的。

圈内人长文解秘,毫不意外的梁文锋

从1到10的关键里程碑,卡住了马斯克

AI革命是人类最巨大的生产力革命,近几年的发展可以界定出三个关键的里程碑。

里程碑【0】:谷歌2017年的论文,该论文中提出的算法思路是原点。

里程碑【1】:OpenAI于2022年11月发布的Chat GPT。OpenAI首次完成了大模型全工程验证。其创新性就如美国当年的原子弹。

里程碑【10】:则是DeepSeek的这一组论文和模型(DeepSeek_V2、DeepSeek_V3 、DeepSeek_R1 、DeepSeek_Janus Pro、DeepSeek_JanusFlow)。

未来的里程碑【100】,将是AI应用于各行各业。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

在前面三个里程碑阶段,谷歌、OpenAI、DeepSeek做出了各自的卓越贡献。不要因为DeepSeek的出现否定OpenAI的价值,在OpenAI发布ChatGPT之后,Meta、Google、

Microsoft、Grok、百度、阿里、豆包、腾讯、Kimi等所开展的研究工作,基本上都是对OpenAI里程碑【1】的复现、或局部优化。都是在围绕里程碑【1】打转转。

DeepSeek的杰出成果,给千行万业低成本应用AI大模型指明了方向;至此之后,Meta Llama 和马斯克的Grok这样的开源模型,若拿不出更优秀的模型,都不好意思面世。

看看DeepSeek对马斯克Grok的震慑。Grok原定于24年12月底发布Grok3.0新模型,使用10万个英伟达H100 GPU卡,且预称Grok3.0将成为“世界上最强的AI”。2024年12月26日,DeepSeek_V3发布后,马斯克的Grok宣布将新模型的发布推迟到25年1月;而DeepSeek又在25年1月20日发布了_R1推理模型,这时马斯克的Grok新版本又没有消息了。

马斯克肯定不会发布一个明显不如DeepSeek的模型。我想,Grok和Meta都在忙着消化和复现DeepSeek的成果。别把马斯克当神,别把扎克伯格当神,他俩都不在大模型的第一线,上大学或研究生时学的《数理统计》课程,可能基本忘光光了。别信他们在媒体上瞎喷。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

对公司最紧要、最困难的创新,公司老大应该身先士卒、All In投入、一线作战。过去几年中,小米汽车的雷总是这么做的,DeepSeek的梁文锋总也是这么做的。

我们让DeepSeek写诗、对对联、谈哲学、谈人生,朋友们都哇噻哇噻,DeepSeek的中文怎么这么强啊。在中文语义理解与生成领域,DeepSeek展现出了极为独特的优势。

我根据论文给大家揭秘。DeepSeek在学习中文语言时,对其特性做了三重解构;在生成中文文本时,做了三重重构。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

第一重:非线性语义网络的建模

德语、波兰语等西方语言,通常有复杂(Aha啰嗦的)和严谨的(Aha不灵活的)语法体系,名词有「性-数-格」的变化,动词有「时态-语态-人称」的变化;而中文“以意合语法”为核心特性,使其天然具备「字-词-句」的多层弹性结构;词语组合靠语义关联,句子构建重意义连贯,上下文决定语义和语法功能。

DeepSeek通过动态加权注意力机制,构建了非固定层级的语义网络——例如在解析“春风又绿江南岸”时,其中的“绿”字,模型能同步解析/激活“绿”字的(视觉层)色彩意象、(时间层)季节变迁、与(文化层)生命隐喻,这种多模态语义场的并行计算,突破了传统序列模型的线性局限。这是DeepSeek对中文的第一重解构。

第二重:文化拓扑空间的向量映射

不同于西语字母文字或其他拼音文字的纯符号逻辑,中文和汉字承载着绵延三千年的文化拓扑结构。在学习训练中,DeepSeek构建了复合嵌入空间,将《说文解字》部首体系、平水韵音律空间、书画气韵图谱信息嵌合在一起。

比如,当生成“孤舟蓑笠翁”这类诗句时,模型并非简单组合常见意象,而是在128维文化向量空间中,沿着“渔隐文化-水墨审美-禅宗哲学”的多维路径进行梯度搜索,确保输出符合中文美学的深层结构。这是DeepSeek对中文的第二重解构。

第三重:虚实界面的动态平衡技术

针对中文“言有尽而意无穷”的表达特性,DeepSeek研发了语境留白预测算法。在处理哲学论述时,模型会主动构建“显性语义-隐性指涉”的双通道输出;在生成道家思想相关文本时,既能保证“道可道非常道”的精确转译,又通过调节信息熵值在某个[0.65~0.78]区间的可控模糊,保留东方哲学特有的阐释空间。这种精确与模糊的微妙平衡,使其输出既具逻辑严密性,又蕴含诗意张力。

测试结果显示,在中文古典文本重构任务中,当前版本的DeepSeek文化意象还原度达89.7%,较同类模型提升23.5%;在哲学命题生成方面,其思想密度指数(CDI)达到7.82,已接近人类哲学家的中等创作水平。

这种能力标志着NLP(自然语言处理)技术开始真正触及汉语的“道器之辨”,为人工智能理解东方智慧提供了新范式。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

比如,有网友让DeepSeek模仿《红楼梦》前八十回的语言特性,重写《红楼梦》后四十回,网友觉得DeepSeek写得比高鹗好,文笔更像曹雪芹。

DeepSeek大模型对中文和中华思想的理解显著超越其他大模型,真心要点赞,太厉害了!

可以说,从甲骨、青铜到碑林石刻、诗词歌赋、到3.7亿字的《永乐大典》、到8亿字的《四库全书》,DeepSeek用多重解构和多重重构的智能算法,真正让AI理解了我们意蕴深邃的文字、精妙绝伦的语言,让AI拥有了东方智慧。

在大模型主流榜单中,DeepSeek 在代码Code、数学Math类问题上的能力,居于开源模型中榜首位置。代码和数学这类偏客观的问题,各家大模型以后都可以做得很好,我们就不再过多讨论。

圈内人长文解秘,毫不意外的梁文锋

巨大的文化传播价值

如今正值 “百年未有之大变局”。以DeepSeek大模型对中文及中华文化的深刻理解,未来百年将在文化大同中存在独特的价值。

中华文化以本土的儒-道思想为根基,支撑起华夏文明的精神框架。佛教源自外邦,但出现了释道安_鸠摩罗什_玄奘_慧能这样的古圣先贤,他们将佛教思想中国化,儒释道相互交融,春风化雨般融入中国人的内心,让我们在纷繁尘世中更容易找到一个安顿心灵的精神家园,这些思想一起成为中华民族精神世界中不可或缺的重要组成部分。

千年黑暗之后的启蒙时代,法国思想家伏尔泰、孟德斯鸠和卢梭,德国思想家莱布尼茨和康德等,曾借鉴过中华文化的某些思想。前几天,有个悉尼大学的讲师展示了他与DeepSeek的哲学对话,其回答中蕴含的东方哲思惊艳了全网。

如果DeepSeek未来成为全球用户首选的AI大模型,在与全球用户的互动中,会以润物无声、潜移默化的方式,传播中华思想和东方智慧。DeepSeek会成为他们的鸠摩罗什、慧能法师,是未来百年一带一路文化传播的绝佳路径。

DeepSeek爆火之后,有人说DeepSeek的数据是偷来的、是蒸馏来的;他们的股票模型表现就一般般,所以DeepSeek未来可能死掉;另外一些人说,DeepSeek成功之后,幻方量化在A股割韭菜,未来就所向披靡、无人能敌了。

我以圈内人的视角,对他们的股票模型,做个解读。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

先看幻方量化的主力产品,A-B-C三个系列,

A是幻方沪深300增强策略,2017年12月成立以来,净值收益率为244%,年化收益率19.09%,相比同期指数的增强收益率为266%。

B是幻方中证500增强策略,2017年1月成立以来,净值收益率为319%,年化收益率19.63%,相比同期指数的增强收益率为353%。

C是幻方中证1000增强策略,2018年10月成立以来,净值收益率为369%,年化收益率27.95%,相比同期指数的增强收益率为287%。

上述三个系列的产品,可能承载了200-300亿的资金,这样的业绩表现处于百亿规模第1梯队,虽然未必是最头部的。

至于说幻方量化产品过往三年不怎么赚钱,那是因为大盘指数从2021年11月的高点开始连续三年大幅下跌,幻方产品近三年虽然没取得显著的绝对收益,但相对收益不错。他们应该有收益风险比更好的量化策略,但因为承载规模有限,仅用作自营,不对外开放。业内和坊间传言,过去16年,幻方量化的股东大概赚了¥100亿。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

浙江省慈善总会的审计报告显示,一只平凡的小猪在2021-2022-2023连续三年捐款,累计金额达3.2亿元。这应该是梁文锋代表公司给社会的慈善捐款。

至于说在DeepSeek成功之后,幻方量化未来在A股割韭菜将所向披靡,这个不太可能。理由有三:

第一,金融市场的博弈属性,使得任何量化模型,都必须对市场做出某种假设;这个假设在未来的市场上可能存在,也可能不存在;所有量化模型都要承受市场风险,没有理论上稳赚不赔的模型。

第二,中国金融市场是严监管市场,幻方量化已基本封盘,不再募集新资金。他们做到了第1梯队,主动将规模从近1000亿降到400-500亿,他们可能也不想做得太大。

第三,幻方量化过去16年赚了100亿,但DeepSeek未来16年可能赚2000亿。和AI大模型相比,量化的收益显然不在一个量级。他们的志向可能真不在割韭菜上。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

最后说一下,关于DeepSeek,网上几个以讹传讹的谣传。

谣传1,说幻方量化在DeepSeek-R1发布前,做空英伟达,赚了很多钱。

答案是,不可能。因为DeepSeek与英伟达的团队保持着很密切的技术合作和商业合作关系;做空自己的合作伙伴,这太下作,会断了自己的后路。再说,幻方也不能预测英伟达股票会有多大幅度的下跌或反弹。

根据美国新闻网站MarketWatch的回顾分析,现在证实:引起1月25日英伟达和美国股市暴跌的原因是,一名叫伊曼纽尔(Jeffrey Emanuel)的企业家在美股开盘前,写了一篇长达12000字的互联网(小)作文,尖锐指出英伟达面临的(硬件层面、软件层面、理论层面)三方面威胁。这篇文章迅速传播,流量一度让他的个人网站崩溃,同时阅读人数最多的城市是加利福尼亚州的圣何塞,也就是英伟达公司总部所在地附近。英伟达内部雇员集中卖股票,可能是使得英伟达股票暴跌-17%的主要原因。

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

谣传2,DeepSeek肯定会因为被美国制裁而在未来陷入困境。

不太可能。DeepSeek-R1发布后,Nvidia、AMD、Microsoft、Google、Meta、Grok、Apple、

Oracle、Amazon都在集成DeepSeek的新模型,他们是直接收益者,因为都有当下可落地的产品或场景,尤其是AMD的苏妈,DeepSeek的神助攻,她做梦都要笑醒。如果美国以莫须有的罪名严厉封锁DeepSeek,受益者不会答应。

只有Sam Altman(OpenAI)的chatGPT系列模型、和Dario Amodei(Anthropic)的Claude系列模型,可能会受到较大的冲击,因为他们还是纯模型公司,在寻找未来的落地场景。

谣传3,冯骥与梁文锋的除夕夜话,那篇文章一眼假

圈内人长文解秘,毫不意外的梁文锋
(图源:pixabay)

谣传4,DeepSeek是靠偷取OpenAI的数据才获得成功的。

错。DeepSeek模型的回答中出现“我是OpenAI”或“我是ChatGPT”的回答不足为奇。谁的公开文本多,模型统计就往那个方面偏。互联网上的文本语料,有3100万亿(3100T)个Token,没有AI模型公司会一一检查。

打个比方,村里有个种蘑菇的菇凉叫“刘亦菲”。菇凉问AI:“我叫刘亦菲,你说我是做什么的?”AI会回答:“你是知名演员,你是大美女。”菇凉对AI说:“我是在村里种蘑菇的,我不是大美女”;AI会回答:“你就是知名演员,你就是大美女,你别再骗我了”。

就是这个意思,一说就明白。

互联网上的文本数据版权是笔糊涂账。比如,作家王朔作品中的语言,其讽刺与调侃独有韵味。如果我让chatGPT学习王朔的语言,写一段话类似的话,请问,chatGPT会给王朔版税吗?

前一阵,印度的多家数字媒体、新闻社和出版商联合会还向新德里法院起诉,指控OpenAI通过抓取和改编其版权内容来训练ChatGPT。

“清华简”上的战国古文字数据,是清华大学团队人工标注的,没有正式对外公开。但因为斯坦福大学一个AI团队的抄袭或破解,数据就可能流传到互联网上,会由此混入几十万亿的Token中。谁能把这种东西逐个摘干净?

在AGI时代,文本数据版权最后就是一笔糊涂账。DeepSeek的模型核心价值,在算法创新,而不在任何只言片语的语言语料。创业要抓住核心价值,快速行动,忽略细枝末节的东西,水至清就无鱼,也就不能创业。

(免责声明:本文为叶檀财经据公开资料做出的客观分析,不构成投资建议,请勿以此作为投资依据。)

叶檀财经矩阵号

声明:近期,不少人以叶檀财经的名义,或xx叶檀、叶檀xx等名义,在各大平台售卖和股市相关的课程,进行和股市相关的直播。

在此,我们声明,任何和股市相关的直播、课程,均与叶檀财经无关也没有得到叶檀财经或叶檀本人的授权,认可

叶檀财经运营并管理的微信公众号、视频号有且仅有叶檀财经、叶檀暖人生、叶檀聊人生、半间白云、叶檀说、檀谈人生,抖音号叶檀财经、檀姐姐暖人生,小红书号叶檀财经,快手号叶檀财经,头条号叶檀财经,百家号叶檀,请用户认准上述账号。但凡与上述微信账号不一致的公众号均非叶檀财经负责运营管理,叶檀财经和叶檀对其行为不承担任何法律责任。

放松心情,把学习和享受贯穿在悠长的人生中,让我们一起成长,一起快乐。

作者:马贤亮编辑:旦旦

图片:来源于网络,侵删

叶檀财经作品 | 尽情分享朋友圈

咨询合作,请联系微信

13818756019(商务微信)

喜欢请您点个赞

免责声明: 本文来自梵星网创作者,不代表梵星网的观点和立场。 本网页内容均来自网络采集,如果侵犯了您的权益请与我司联系。
THE END
点赞7 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容