「100万字的年报,被塞进去,AI却好像金鱼一样7秒就忘,你还敢把董事会决策交给它」

昨天夜里,北京望京的一位券商,分析师把这话发到朋友圈,十分钟就收获了两百个怒赞
MITCSAIL的新论文,就像一闷棍,打在所有上下文窗口崇拜者的后脑勺上
他们给模型,一把Python刀,让它像实习生那样一边查资料一边写草稿,碰到长段就递归分割自身,再把自身叫回来接着操作
那结果如何,32K的短记忆硬是被拉到1M,成本反而降低了三成,准确率只降了1.8个点
上周上海寒潮,浦东图书馆里却挤满了穿羽绒服的程序员,他们围着一台笔记本,轮流敲代码,就只是为了重现这份递归魔法
有人把《民法典》全文放进里边,让模型查找居住权和抵押权冲突条款,十秒钟就给出17条引用,并且页码分毫不差
与此同时,杭州菜鸟仓库的算法,组把双十一48小时的物流日志输入到RLM中,以往得用6个小时排班的拣货路径,现在,18分钟就重新计算好了,节省出一辆9.6米厢货的油钱
深圳一位女网红更加厉害,她把近一年300个小时的直播弹幕,投喂给模型,让其找出黑粉话术的套路,两小时后得到一份高频词云,寒酸出现4372次,比第二名多了三倍,她直接把结果截图发到粉丝群里,3分钟内就有5万多的阅读量
有人担忧代码,写代码会不会失去控制,论文作者,AlexZhang把实验日志公开在GitHub上,最后一行写道,沙盒深度7层,自动熔断,0次越界
在昨晚11点,广州塔下的无人咖啡,亭被城管临时叫停,其缘由并非卫生,而是机器里运行的新对话,脚本运用了RLM,当顾客,随意问「广州1938年冬天冷吗」时,它把《广东省,志·气象志》第302页翻出来,补上一句「那年日军轰炸,市民躲防空洞,冷得咬嘴唇」,排队的人听完后静默,城管由于怕引起聚集,让老板先把机器关掉
在72小时内,国内四家顶尖云厂商悄悄上线了RLM体验入口,有人却嘲讽Recursive不过就是新包装的老算法罢了,它的价格表,是根据递归深度来计算费用的,每层0.004元,比传统长文本便宜一半
清晨两点,北京中关村一家,从事法律合规的创业公司还亮着灯,CEO连夜把合同审查系统接入RLM,2024全年证监会处罚书1.2G的文本被他一次性投喂进去,机器一边运行一边输出条款,早上,7点生成38页风险清单,他发朋友圈说道,「以后上市辅导,一个人带一台笔记本就行」
最忐忑的或许就是GPU经销商,上海徐家汇,有位渠道商在朋友圈抛售,「A10080G现货,48小时内猛降6000元,囤了200块,快快来抢购」
有人调侃道,大模型总算是从拼算力回归到拼智慧,就好像1998年那个冬天那般,马化腾在五层楼的出租屋里用56K猫上线,OICQ,当时压根,没人能预想它会改变社交
此刻,窗外零下6度,可是手机屏幕热得厉害,一条新推送弹了出来,某头部基金连夜设立了一个10亿元的RLM生态基金,专门投资那些能把长文本成本再降低一个量级的团队
你盯着那条信息,忽然,白天被300页PDF掌控的那种恐惧就涌上心头,手指不由自主地就点开了申请链接,心里就仅有一个念头让机器去做重复的事
把夜晚还给人类
声明:本文内容95%左右为人工手写原创,少部分借助AI辅助,但是所有的内容都是本人经过严格审核和核对的。