精品项目

揭示 AI 关系聊天机器人背后的真相

揭示 AI 关系聊天机器人背后的真相

Emma McGowan 2024年2月14日

近日,Mozilla的一份报告指出,近期浪漫AI聊天机器人的爆炸性增长,正引发一系列全新的隐私问题。

自20世纪60年代以来,AI浪漫伴侣就一直在流行文化中占有一席之地。无论是《我的生活洋娃娃》中全功能的安卓机器人“Rhoda Miller”,还是2013年《她》中由斯嘉丽约翰逊配音的无形声音,我们几代人来一直在憧憬人工智慧满足我们所有的情感需求。如今,随著生成式AI的发展和推出,这个梦想似乎终于要变成现实了。

但这真的是梦想吗?还是我们正在梦游进入一场隐私噩梦?Mozilla的研究团队在最近的隐私不包括浪漫AI聊天机器人的特别报告中探讨了这个问题。

研究结果令人震惊,在测试的11款聊天机器人中,有10款未能满足Mozilla的最低安全标准。这意味著,这些机器人不要求用户创建强密码,或无法处理任何安全漏洞。随著Google Play商店中估计超过1亿次的下载,以及OpenAI的新应用商店最近开放了急剧增长的浪漫聊天机器人,这个庞大的问题仅会不断扩大。

不过,这份报告不仅仅是关于数字;它还涉及到这些发现带来的重大潜在隐私隐患。以Replika AI为例,根据Mozilla的说法,人们正与“AI灵魂伴侣”分享他们最亲密的想法、感受、照片和视频,这款应用不仅记录了这些信息,还可能将其出售给数据经纪商。此外,它还允许用户使用像“111111”这样的弱密码创建帐户,从而使所有敏感信息都面临著被黑客攻击的风险。

Calder表示,尽管这些隐私和安全缺陷“令人毛骨悚然”,但有些机器人还声称能帮助用户的心理健康。她提到浪漫AI,该公司的条款与条件中指出:

“浪漫AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、疗法师或任何其他专家才能做到这一点。浪漫AI不声称,也不保证该服务提供治疗、医疗或其他专业帮助。”

揭示 AI 关系聊天机器人背后的真相

然而,他们的网站却声称“浪漫AI在这里是为了维护您的心理健康”强调是他们的。尽管我们无法得知阅读条款和条件的人数与阅读网站的人数之间的比率,但可以肯定的是,有更多人会接受网站的信息而非免责声明。

在心理健康声称与客户自愿分享的个人和私密信息之间,Calder担心这些机器人可能会容易地操控人们做出他们本不会做的事情。

“有什么可以阻止坏人创建聊天机器人以了解他们的灵魂伴侣,然后利用这种关系操纵这些人去做可怕的事情、接受可怕的意识形态,或伤害自己或他人呢?”Calder说。“这就是为什么我们迫切需要在这些AI应用中实现更多的透明度和用户控制。”

所以,虽然AI聊天机器人承诺了伴侣关系,但我们还远未达到《她》中的水平:当前的形势揭示了一个残酷的现实,那就是用户隐私是进入这个领域的代价。是时候让用户、开发人员和政策制定者对AI关系领域要求透明度、安全性和对个人界限的尊重。只有这样,我们才能希望在不妥协我们数位自我的情况下,安全地探索这些数位伴侣的潜力。

白鲸vpn