当前位置: 首页 » 资讯 » 人工智能 » 正文

爆火的 AI 智能眼镜,被做成了新的「偷拍、人肉神器」

IP属地 北京 编辑:杨凌霄 AppSo 时间:2024-10-04 17:40:54

2012 年 Google I/O 大会发布的 Google Glass,被称为 Google 史上最失败的产品,却也在科技史上留下浓墨重彩的一笔。

它失败的原因有很多,隐私风险是其中一个。

让 Google Glass 拍照很简单,用语音命令,或者按住顶部的按钮,但没有 LED 等亮眼的标志,提示他人正处在拍摄状态。

所以,从路人的角度看,Google Glass 就是个不讲武德的「偷拍神器」,甚至曾有用户在电影院被保安赶出来。

一张脸,一副眼镜,认识一个陌生人

你叫 Lee 吗?你从伯根县学院毕业吗?你的韩国名字是 Joo-oon 吗?你住在亚特兰大吗?我们是不是在剑桥社区基金会见过?你的父母是 John 和 Susan 吗?

如果在路上被人搭讪,你没见过他们,但他们好像认识你,热情地叫你的名字,说出你的一两条个人信息,你会是什么反应?

两位哈佛大学生,AnhPhu Nguyen 和 Caine Ardayfio,就做了这样一个实验。

只是智能眼镜本身,还不能达到这样的节目效果,他们做了一些技术上的改动,但原理也并不复杂。

接着,在互联网上搜索到某个人的更多照片,以及基于公共数据库,查找这个人的姓名、住址、电话号码,甚至亲属信息。

最后,这些信息会传送到他们编写的一个手机 app,方便查看。万事俱备,就差随机吓到一个路人。

往细了说,两位学生是把各种现有的、成熟的技术组合在了一起,连生成式 AI 也参与了。

智能眼镜:配备摄像头的智能眼镜,在公共场合捕捉人脸图像。

爬虫工具:使用 FireCrawl 爬虫工具,从这些网页链接中抓取所需的数据。

大语言模型:大语言模型从抓取的、杂乱的数据中推断出姓名、职业等细节。

数据库:在 FastPeopleSearch 等网站输入姓名,从公开记录、社交媒体中查找家庭住址、电话号码和亲属姓名等个人信息 。

其中,大语言模型起到的作用很微妙,它可以理解、处理、汇编不同来源的大量信息,比如,将不同文章中的同一个名字关联起来,通过上下文逻辑推理出某人的身份,让数据提取的过程自动化了。

关于大语言模型的推理能力, 我们之前也报道过一项很有意思的研究,感兴趣的朋友可以回看这篇文章:《和 GPT-4 聊天,一种很新的隐私泄露方式》 。

但彼此之间强强联合的化学反应,还是导致了一个细思极恐的结果——仅凭大街上偶然的相遇,我们的个人信息就可能被有心人提取。

两位学生没有对外公开技术细节,做这个实验的目的,是为了提醒人们保持警惕。

那我们可以怎么保护自己?他们提出的应对方法是,从人脸搜索引擎等数据源中删除自己的数据,但这很难说彻不彻底。

虽然我提醒你了,但你不一定知道被偷拍了

当年有人开玩笑,Google Glass 的最大用处,是让英国王室的查尔斯王子记住每个人的名字。

理由很简单,它长得像普通墨镜,不如 Google Glass 赛博朋克,偷拍更加方便,而且眼镜本就适合记录,免提,见你所见。

meta Ray-Ban 并不是没有提醒,它有一个 LED 指示灯,当用户录制视频,它就会自动打开,提醒旁边的路人。但是,聊胜于无。

之前 The Verge 测评发现,在明亮的室外,meta Ray-Ban 的 LED 和快门声都不明显,在拥挤嘈杂的公共场所,很多人往往不会注意到这种细节。

LED 在右眼的上面,你注意到了吗

当你的手放在镜腿的按钮上,别人可能觉得你就是在扶眼镜而已。

所以也不难理解,隐私一直是智能眼镜的关注点,前段时间 meta 首款 AR 眼镜 Orion 发布时,也有人担心,会不会重蹈 Google Glass 的覆辙。

meta 还在 meta Ray-Ban 的隐私政策里强调了「如何负责任地佩戴智能眼镜」,写了很多条温馨提醒。

然而,每一条都是非强制的,尊重别人也好,在拍摄或直播前用声音或手势提醒他人也罢,全凭自觉。

在 AI 面前,秘密越来越少

在哈佛学生的实验中,大语言模型的作用是帮忙处理数据,但现在使用各种生成式 AI 的产品,我们往往是主动给出自己的数据。

因为很多时候,付出隐私是使用服务的必选项,比如向 AI 换脸 P 图软件交出自己的脸。

更进一步说,不只是脸,AI 硬件和软件们,都越来越强调个人数据的概念。

比如,用 AI 录音产品无缝记录你的一天,向 AI 日记透露你的日常和爱好,或者只是通过记忆功能让 ChatGPT 记住我们是谁。

可穿戴 AI 录音设备 Limitless

AI 会慢慢地更了解你,分析你,整理你周围的信息,提供给你更多的情绪价值,弥补个人有限的脑容量。

同时,这些产品也会强调隐私安全,要么说你的数据就是你的,不会拿你的数据训练模型,要么说用的是在本地运行的端侧模型,或者私有云,隐私泄露的风险更低。

隐私和便利,很难既要又要,当我们享受各种 AI 产品的趣味和个性化时,风险也如影随形。

就像《攻壳机动队》里的电子脑,人们直接将大脑连接上网络或者是进行大脑的互连,彼此可以快速沟通,但大脑也就有了被入侵的风险,连记忆也可以被伪造。

但如果有人戴着「墨镜」走到你面前,叫出你的名字,那一幕还是很有冲击力的,对吗?

或许更让人担心的,是无形的、支配信息的权力,先拥有技术和工具的人,对其他不知情的个人行使这种权力。

智能手机兴起之后,竖屏短视频、直播也发展起来,我们越来越习惯于拍摄和被拍摄,是无辜的背景板,或者说,不在乎,也无从察觉。

这时候我们是汪洋大海里的一滴水,但未来,这滴水,或许会因为镜头背后的 AI 被聚焦,然后折射出更具象的模样。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。