这种傲慢,並非针对个人,而是西方学术界对中国ai领域长期以来的刻板印象。
在他们眼中,中国是“应用工厂”。deepseek也好,通义千问也罢,本质上都是在transformer这座镁国人搭建的大厦里搞装修——通过极致的工程优化来降本增效。
至於底层理论创新?那是普林斯顿、斯坦福和mit的事。
这篇可能改变ai歷史进程的论文,就这样被淹没在了信息的洪流中。
……
隨著徐辰將laart算法从理论推导到代码实现,再到论文撰写,完整地走了一遍流程,他对信息学的理解也发生了质的飞跃。
这种感觉,就像是一个满级的大號带著一个小號去刷高等级地图。
高达lv3的数学等级,就像是一位从天而降的满级法神,隨便甩几个高阶技能,就把信息学那些原本晦涩难懂的“boss”轰得渣都不剩。什么反向传播、什么梯度消失,在高维流形的视角下,不过是简单的拓扑变换而已。
这种“大佬带小號跨级刷图”的爽感,让徐辰的信息学经验值蹭蹭暴涨,直接衝到了【80/100】的大关。
看著那个距离升级只差临门一脚的数字,徐辰心中充满了期待。
只要icml那边传来过稿的好消息,这最后的20点经验值,绝对是板上钉钉的事。
到时候,一旦信息学突破到lv.1,解锁了更深层次的知识权限,那个被他暂时搁置的d-ltmn模块,以及生物信息学的研究,或许都能迎来转机。
……
然而,事情的发展並没有像徐辰预想的那样顺利。
icml的审稿意见,迟迟没有下来。
徐辰並不知道,这其实是西方学术界对中国ai的一种“隱形傲慢”。
虽然之前deepseek的开源非常火,但在西方主流观点里,那只是工程上的胜利。是在镁国人提出的transformer框架下,通过极致的工程优化实现的降本增效。
说白了,他们觉得中国人只会“卷”,只会“抄”,根本搞不出什么底层创新。
所以,当徐辰这篇完全拋弃了transformer主流范式,另起炉灶搞了一套“几何嵌入”理论的论文出现在审稿人面前时,他们的第一反应不是“惊艷”,而是“怀疑”。
“一个中国的大一学生,搞出了顛覆transformer的理论?开什么玩笑?”
“没有经过大规模验证,没有大厂背书,这大概率是个民科。”
於是,这篇论文被搁置了。审稿人们以“缺乏大规模实验验证”、“理论过於晦涩”等理由,迟迟不肯给出录用决定。
徐辰看著一直处於“评审中”状態的投稿系统,有些哭笑不得。
“给你机会你不中用啊。”
“本来国內的策略就是只要一个月窗口期,现在你自己给自己下绊子,把窗口期拖得更长了。”
“行吧,既然你们不识货,那就让子弹再飞一会儿。”
徐辰也无所谓,反正论文已经掛在arxiv上了,只要有识货的人看到,早晚会炸。
他有自信,不用多久,icml会求著收录这篇论文的。
……