北航、人大和九坤投资共同撰写的论文 《Scaling Laws for Code: Every Programming Language Matters》 整理而成。 在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。
作者|周一笑邮箱|zhouyixiao@pingwest.com2025年的圣诞节,大模型战场没有停战。12月23日,MiniMax正式获得中国证监会备案通过。加上此前通过港交所聆讯,这家成立不到四年的AI公司,距离敲钟只剩一步之遥,按目前节奏,Mi ...
这两天,中国 AI 行业关注的核心无疑是 MiniMax。 12 月 21 日,MiniMax(稀宇科技)正式向港交所递交招股书,披露的一连串数字瞬间引爆了舆论场:账上坐拥超 10 亿美元的现金储备,2025 年前九个月营收同比激增 174.7%,而在保持高强度研发的同时,经调整净亏损控制在 1.86 亿美元。 资本市场的喧嚣还没结束,23 日,MiniMax 又反手甩出了一张技术牌:正式上线 M ...