AIPress.com.cn报道
12月11日消息,苹果正推进旗下首款智能眼镜产品,或以“AppleGlasses”命名,并有望最早于2026年亮相。该产品将成为苹果在AI可穿戴领域的关键一步,主打全新的交互方式与深度整合的人工智能体验。
AppleGlasses将配备内置摄像头、扬声器、麦克风,以及一系列传感器,能够支持物体识别、视觉信息处理和语音操作等功能。眼镜将运行定制化的visionOS,并深度融合AppleIntelligence,与即将升级的AI版Siri协同工作,实现更多“看见并理解”的实时交互。例如,用户视线中的物体可即时被识别,系统会根据场景提供信息或建议,类似iPhone的“视觉智能”能力,但以更自然的方式呈现。
为了兼顾轻量化与续航表现,AppleGlasses将采用类似AppleWatch的S系列芯片,负责处理本地的低功耗任务,而更复杂的计算将交由配对的iPhone处理。这一分工方式意味着苹果将延续其成熟的生态策略,通过手机与可穿戴设备协同,把更多AI功能搬到日常使用场景中。
外界推测,苹果还计划为这款产品推出多种镜框设计与颜色选择,以满足不同风格用户的需求。业内人士认为,这一策略与Meta、Google在智能眼镜上的布局相似,苹果显然将其视为下一代个人设备生态的重要组成部分。
今年以来,智能眼镜赛道明显升温。Meta已发布搭载显示屏的新款Ray-BanDisplay眼镜;Google则与WarbyParker、GentleMonster合作推出风格化的AI眼镜系列。国内的夸克、理想也先后发布了智能眼镜产品。随着苹果的加入,2026年可能成为智能眼镜的关键转折点,行业竞争也将进入新阶段。
苹果方面尚未对相关消息做正式回应,但从其在visionOS、Siri重构以及AppleIntelligence上的持续投入来看,一款全新的AI可穿戴产品显然已在路上。(AI普瑞斯编译)