游戏百科

中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可

中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有,一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。” 要知道,梁文锋这人可不是坐办公室空谈理论的,而是在科技行业摸爬滚打多年,见过真刀真枪的竞争,他说的那句“表面是一两年技术代差,真实是原创和模仿之差”,堪称一针见血。   先说那层表面的差距,确实看着不大。现在国内的大模型在不少测试里分数跟美国的GPT、Gemini差得不多,有的在数学推理、写代码这些活儿上甚至还能超过一截,推理成本还比美国低得多,API价格更是便宜到几十分之一。 应用层面就更不用说了,从政务办事到金融报表,从智能家居到汽车导航,AI几乎渗透到了生活和工作的方方面面,看着热热闹闹,一派繁荣景象。 可要是往深了挖,就会发现这些光鲜背后全是“模仿”的影子——别人先搞出了大语言模型,咱们跟着做类似的;别人开发了AI生成内容的工具,咱们跟着优化;别人搭建了模型训练的框架,咱们就在这个框架里填东西。就像学生照着标准答案改作业,改得再快再整齐,也不是自己想出的解题思路。   真正的差距藏在看不见的地方,这才是最让人揪心的。首先是最底层的“底子”不行,也就是算力和数据。 全球新增的智能算力里,七成多都被美国拿走了,微软一年就砸几百亿美元建数据中心,OpenAI计划部署上百万张GPU,咱们的智能算力还不到美国的十分之一。 更头疼的是芯片,高端训练芯片九成以上都得靠进口,国产的就算能造出来,性能也只能达到人家顶尖水平的八成。 数据这块更不用说,美国攒了上百年的各类数据,涵盖各行各业,而咱们能用的训练数据乐观估计也不到人家的十分之一,大多还是中文数据,范围窄得很。没有足够的算力和多样的数据,原创就像无米之炊,巧妇也难为,只能照着别人的成品学着做。   再往上到技术层,差距就更明显了。美国是真正的“出题人”,大模型的原始创新、核心算法几乎全是人家搞出来的,全球一半以上的顶尖AI人才都聚在那儿,连咱们自己的顶尖人才不少也在那边。 咱们呢,虽然AI专利和人才总数看着多,但真正能搞原始创新的顶级人才没几个,高质量专利更是少得可怜。就拿大模型来说,咱们做的大多是在别人的基础上修修补补,优化优化性能,降低降低成本,就算像DeepSeek那样做出性能比肩国际顶尖的模型,也还是在已有的技术框架里打转,不是那种从0到1的突破性创造。 AI生成内容看着花哨,本质上也是把训练过的内容重新排列组合,就像用现成的乐高积木拼造型,没有真正的创作冲动和思想内核,跟人家那种能开辟全新技术路径的原创根本不是一回事。   最关键的是创新生态的差距,这东西比技术本身更难补。美国的投资六成以上都砸在了基础研究上,愿意花大钱养着科学家慢慢啃硬骨头,就算一时看不到回报也认了。 咱们呢,七成的投资都堆在应用层,什么火就往什么里砸,追求快回报,没人愿意沉下心来做那些耗时费力的基础研究。 美国的科技巨头靠闭源技术建立起绝对的竞争优势,掌控着整个产业链的话语权,而咱们的企业只能靠开源突围,虽然能快速拉近距离,但本质上还是在别人制定的规则里玩。这种生态上的差距导致咱们总是被动追赶,人家往前走一步,咱们就得赶紧跟一步,永远没法走到前面去制定规则。   可能有人会说,应用领先不也挺好吗?但你想想,没有原创打底,应用再广也是空中楼阁。人家要是在基础层卡咱们一下,比如断了高端芯片供应,或者封了核心算法,咱们那些看似繁荣的应用立马就会受影响。就像梁文锋说的,不改变原创和模仿的差距,永远只能是追随者。 现在咱们的开源模式虽然做得好,能让更多人用上AI技术,但这只是“软实力”的释放,不是“硬实力”的突破。开源能让咱们站在前人的肩膀上,但要是自己长不出能扛事的肩膀,早晚还是要受限于人。   梁文锋这话既是点醒也是警示。别被表面的繁荣迷了眼,也别因为差距大就泄气。咱们现在最该做的,就是把钱和精力真正投到基础研究上,培养能搞原创的人才,容忍暂时的失败,踏踏实实地补好原创这块短板。不然的话,就算表面上追得再近,也永远摘不掉“追随者”的帽子,永远要看着别人的脸色走路。这不是危言耸听,是实实在在的现状,也是必须迈过去的坎儿。