12 月 17 日消息,meta Ray-Ban meta 智能眼镜今日迎来 v11 重大更新,为用户带来更智能的交互体验。其中,“实时 AI”(Live AI)功能成为本次更新的最大亮点,参与“早期体验计划”的用户将率先体验到这些新功能。
据了解,此前的 meta AI 仅能通过拍摄单张照片并进行分析来回应“Hey meta”的询问,而更新后的“实时 AI”功能将实现“持续观察用户所见,并以更自然的方式与用户对话”。
在“实时 AI”会话期间,眼镜将实时录制视频并分析所见内容。用户无需使用“Hey meta”唤醒词即可提问,AI 还会记住用户之前的提问。用户可以随时打断 AI 进行后续提问或更改话题,meta 称 AI 甚至会在用户提问前主动“提供有用的建议”。
这一功能与谷歌的 Gemini Live 提供的对话式 AI 功能类似,后者也支持打断和记忆查询。但不同的是,Gemini Live 功能需要使用手机,而 meta 的“实时 AI”则允许用户完全解放双手进行提问。
在 2024 年 10 月的 meta Connect 大会上,扎克伯格曾演示了使用“实时 AI”查看衣柜,并询问哪套服装最适合以“咆哮的二十年代”为主题的派对。虽然实际效果还有待检验,但这一概念无疑是智能眼镜的一大进步。
本次 v11 更新的第二个重要功能是“实时翻译”。扎克伯格也曾在 meta Connect 2024 上对此进行了演示。顾名思义,用户可以用英语与说西班牙语、法语或意大利语的人交谈,并通过手机屏幕查看对方的回复,或通过 Ray-Ban meta 眼镜的扬声器收听。
v11 更新的最后一个功能是 Shazam 集成。用户只需说“Hey meta,Shazam 这首歌”,即可识别周围播放的音乐。
希望立即体验这些功能的用户需要注册“早期体验计划”,否则需要等到 2025 年初的正式版本发布。用户可以通过 meta View 应用程序的设置菜单选择加入“早期体验计划”。
近几个月,meta 推出了一系列有用的 AI 更新,例如允许 meta AI“记住”某些事情(例如停车地点),并拍摄相关照片以创建稍后提醒的功能。