揭示 AI 关系聊天机器背后的真相
Emma McGowan 2024年2月14日
Mozilla最近的一份报告指出,最近浪潮般兴起的浪漫AI聊天机器人正造成一系列新的隐私问题。
自60年代以来,AI浪漫伴侣在流行文化中就已经成为一种趋势。从《我的生活洋娃娃》中的全身机器人Rhoda Miller,到2013年电影《她》中斯嘉丽约翰逊所配音的无形声音,我们几代人以来一直在梦想著人工智慧能满足我们所有的情感需求。现在,随著生成式AI的发展和发布,这一梦想似乎终于有可能成为现实。
但这真是梦想吗?还是我们在不知不觉中走入隐私的噩梦?这就是Mozilla研究团队最近发布的隐私不包括在内:浪漫AI聊天机器人的特别报告所要解答的问题。
白鲸官网报告结果令人震惊,11个测试的聊天机器人中,有10个未能达到Mozilla的最低安全标准。这意味著,包括不要求用户创建强密码或缺少应对安全漏洞的方式。随著Google Play Store中估计超过1亿次下载,以及OpenAI应用商店最近开放后出现的浪漫聊天机器人大量涌入,这一巨大问题只会愈演愈烈。
但报告不只是数字,它还涉及到这些发现的潜在隐私影响。以Replika AI为例。根据Mozilla的报告,人们在一个不仅记录这些信息,还有可能将其出售给数据经纪人的应用上与他们的AI灵魂伴侣分享他们最亲密的思想、感受、照片和视频。该应用还允许用户以弱密码如111111创建帐户,将所有敏感信息暴露在黑客攻击的风险之中。
Calder表示,尽管这些隐私和安全缺陷已经让人感到毛骨悚然,但一些机器人还声称能帮助客户的心理健康。她以浪漫AI为例,指出其条款和条件中写道:
浪漫AI既不是医疗服务提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或任何其他专业人员能做到这一点。浪漫AI不对服务提供治疗、医疗或其他专业帮助作出任何声明、陈述、保证或保证。
然而,他们的网站声称浪漫AI是在维持您的心理健康强调是他们的。尽管我们没有数据显示有多少人阅读条款和条件与阅读网站的人数对比,但可以肯定的是,更多人关注的是网站上的信息,而非声明内容。
在心理健康的声称和客户自愿举报的个人隐私信息之间,Calder担心这些机器人可能会轻易操纵人们做出平时不会做的事情。
有什么可以阻止不当行为者创建聊天机器人,让他们了解灵魂伴侣,然后利用这段关系来操纵这些人做可怕的事情、接受令人恐惧的意识形态,或对自己或他人造成伤害?Calder说。这就是为什么我们迫切需要在这些AI应用中增加透明度和用户控制。
因此,虽然AI聊天机器人承诺提供陪伴,但我们尚未达到《她》的那种水平:目前的情况显示出一个明确的现实,即使用者的隐私成为了付出的代价。现在是时候让用户、开发者和政策制定者要求在AI关系领域中实现透明、安全和对个人界限的尊重。只有这样,我们才能希望在不妥协我们数位自我的情况下,安全地探索这些数位伴侣的潜力。