Ai不如人类的,比如记忆力不足(也是创业机会)最新的Gemini3Pro等
Ai不如人类的,比如记忆力不足(也是创业机会)最新的Gemini3Pro等支持“百万级Context”(100万Token)的模型,其容量大约对应50万个汉字。当对话内容超过约50万个汉字的上限后,模型就会开始遗忘早期的内容。上下文窗口本质上是大模型的“短期工作记忆”。一旦信息被移出这个窗口,模型就无法再感知或回顾这些内容。Ai的缺点,多收集,知道一个工具的边界。——————————Ai软件应用,还有一个创业方向:Chris和他的联合创始人Sam(一位设计师)看到了另一个维度的竞争。他们提出了一个核心公式:AI的价值=模型能力×上下文(Context)现在的硅谷,所有人都在疯狂卷公式的左边——“模型能力”。OpenAI、Google、Anthropic正在把模型变得越来越聪明。但对于应用层创业者来说,卷模型是死路一条。真正的机会在公式的右边——“上下文”。想象一下:助手A(高智商,零上下文):它是爱因斯坦,但它不认识你,不知道你在做什么项目,不知道你的说话习惯。助手B(普通智商,全上下文):它智力平平,但它读过你所有的邮件,参加过你所有的会议,知道你昨天做的每一个决定。在工作中,助手B完胜助手A。Granola的起点就是这个洞察:不要试图比OpenAI更聪明,要比OpenAI更懂用户。他们决定不做“通用的会议记录员”,而是做一个“上下文感知工作空间”。