Emma McGowan 2024年2月14日

Mozilla最近的一份报告发现,浪漫AI聊天机器人的激增正在引发全新的隐私关注。

AI浪漫伴侣自1960年代以来就已经在流行文化中出现。从《我的人形娃娃》中全身的安卓机器人“罗达米勒”,到2013年在《她》中的斯嘉丽约翰逊所饰演的无形声音,我们几代人一直在集体幻想人工智能可以满足我们所有的情感需求。如今,随着生成AI的发展与发布,这一梦想似乎终于有可能成为现实。

但这真的是一个梦想吗?还是我们正在无意中走入一个隐私噩梦?这是Mozilla研究团队在其最近的 隐私不包括在浪漫AI聊天机器人特别报告 中提出的问题。

揭开人工智能情感聊天机器人的真相

报告的发现令人震惊,测试的11款聊天机器人中有10款未能达到Mozilla最低安全标准。这意味着,除了其他问题外,它们不要求用户创建强密码,也没有处理任何安全漏洞的方法。根据估算,谷歌Play商店的下载量超过一亿,而OpenAI应用商店最近也看到浪漫聊天机器人的涌入,这巨大的问题只会进一步加剧。

但是这个报告不仅仅是关于数字;它还涉及到这些发现可能带来的重大隐私影响。以Replika AI为例。据Mozilla报道,人们在这款应用上与他们的“AI灵魂伴侣”分享了自己最亲密的想法、感受、照片和视频,而这款应用不仅记录这些信息,还有可能将其出售给数据经纪人。它还允许用户创建弱密码如“111111”的账户,使所有这些敏感信息面临被黑客攻击的风险。

卡尔德表示,虽然这些隐私和安全缺陷已经“令人不安”,但一些聊天机器人还声称可以帮助用户心理健康。她以Romantic AI为例,其条款与条件中指出:

“Romantic AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他任何专家才能做到这一点。Romantic AI不对其提供的服务是否提供治疗、医疗或其他专业帮助作出任何声明、代表、保证或担保。”

然而,它们的网站却声称“浪漫AI会维护您的心理健康”强调为它们自己所做的。虽然我们没有数字说明有多少人阅读了条款与条件与阅读网站内容的人数相比,但可以肯定的是,很多人比起免责声明,更容易接受到网站的消息。

在心理健康声明与客户自愿分享的个人与私人信息之间,卡尔德担心这些机器人可能会轻易操控人们,促使他们做出平时不会做的事情。

白鲸加速器官网

“有什么能阻止不良行为者创建聊天机器人,旨在更了解他们的灵魂伴侣,然后利用这种关系操控这些人做出可怕的事情,接受令人恐惧的意识形态,或伤害自己或他人?”卡尔德说,“这就是我们迫切需要在这些AI应用中实现更多透明度和用户控制的原因。”

因此,尽管AI聊天机器人承诺提供陪伴,但我们尚未达到《她》的那个层次:当前的景象显示出用户隐私是获取入口的代价。现在是用户、开发者和政策制定者要求在AI关系领域实现透明度、安全性和尊重个人边界的时候了。只有这样,我们才能安全地探索这些数字伴侣的潜力,而不侵犯我们的数字自我。