当心 “失控”的科技智能产品出卖你的隐私(图)

作者:闻天清 发表:2018-05-31 04:20
手机版 正体 打赏 0个留言 打印 特大

亚马逊智能音箱Echo
亚马逊智能音箱Echo(图片来源:Pexels)

【看中国2018年5月31日讯】(看中国记者闻天清编译)它们一直在聆听着你与他人的对话,也一直处于互联网在线状态中。你可知道当亚马逊(Amazon)的虚拟语音助理亚历克瑟(Alexa)如果失控时会发生什么?它是否会在没有得到你授权的情况下分享私人谈话?如今,这种可能性已经成为现实了。

据美国华盛顿电视新闻台KIRO7报道,来自俄勒冈州波特兰市(Portland,Oregon)一名女士丹妮尔(Danielle)说,她家中的亚马逊智能音箱Echo虚拟语音助理亚历克瑟录制了她与丈夫的一段对话,然后在他们不知道的情况下,将这段对话录音分享发送给了丹妮尔丈夫在西雅图的一个员工。

丹妮尔的家中摆放了几个亚马逊智能音箱Echo,通常是用来控制房屋冷暖、灯光和保安警报系统。丹妮尔表示,在他们谈话的时候,亚马逊智能音箱Echo就在她旁边,当时音量设置为7(最大音量设置为10),但丹妮尔从未被请求得到她的授权许可之后发送出这段录音。直到有一天,丹妮尔的丈夫接到了西雅图员工的电话,告知说收到了他们夫妻谈话的录音。

随后,丹妮尔停止使用家中所有的亚马逊智能音箱Echo,并切断它们的电源,她表示自己再也不敢使用亚马逊智能音箱Echo了。她说:“我再也不会把那个智能音箱插上电源了,再也不相信它了。”

丹妮尔联系了亚马逊公司,要求对此事件进行调查。

对此,亚马逊公司发表了一份声明称,智能音箱Echo错误地将丹尼尔与她丈夫闲聊的话语当作了一系列的请求和指令,最终按照“指令”将录音信息发到丹尼尔丈夫的员工那里。

据美国《纽约时报》报导,这不是亚马逊智能音箱Echo首次出现这种非同寻常的错误。在今年3月份,由于数名用户反馈,在没有指令的情况下,有时突然会听到智能音箱Echo虚拟语音助理亚历克瑟发出的笑声。亚马逊也提供了类似的解释,在极少数情况下,虚拟语音助理亚历克瑟错误地听到“亚历克瑟,笑”的指令。最终,亚马逊将该指令用语改为:“亚历克瑟,你会笑吗?”

5月份,加州大学伯克利分校科研人员在一篇发表的论文中称,他们已经证明虚拟语音助理的技术也可能会被操控和利用。科研人员表示,在没有人注意的情况下,他们能够将一些指令隐藏在语音用语指令文本中,虚拟语音助理,如苹果的Siri、谷歌助理和亚马逊的亚历克瑟等都能理解这些指令并去执行。

丹妮尔的遭遇引起了网友的忧虑,他们在社交媒体上用幽默的方式表达了自己对这种智能产品的担忧。

用户:“亚历克瑟,你在监视我吗?”

亚历克瑟(咳嗽):“没有,当然没有。”

用户:“好,谷歌,去问问亚历克瑟、Siri有没有在听我的谈话。”

微软旗下虚拟语音助理Cortana说:“如果你没干什么坏事的话,就不需要担心什么。”

来源:看中国

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员


欢迎给您喜欢的作者捐助。您的爱心鼓励就是对我们媒体的耕耘。 打赏
善举如烛《看中国》与您相约(图)

看完这篇文章您觉得

评论



加入看中国会员

donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意