首页 / 科学 / 正文

微软员工阅读用户的聊天机器人帖子,引发了安全担忧

放大字体  缩小字体 来源:小编 2024-05-07 18:53  浏览次数:89 来源:http://www.fstts.cn/    

微软(Microsoft)透露,在人们对使用必应(Bing)聊天机器人的数据保护日益担忧之际,该公司员工正在阅读用户与其聊天机器人的对话。

该公司表示,人工审查人员会监控用户提交给聊天机器人的内容,以便对“不当行为”做出回应。

摩根大通(JP Morgan)和亚马逊(Amazon)等雇主已禁止或限制员工使用使用类似技术的ChatGPT,原因是担心敏感信息可能被输入机器人。

本月早些时候,微软向全世界发布了必应聊天,并承诺用其人工智能机器人打破谷歌在搜索领域的垄断,之后必应聊天一夜之间就引起了轰动。

然而,最近几天,在测试者报告了一些奇怪的互动后,比如机器人宣布对人类的爱,并承认有暴力幻想,该公司限制了该服务。

微软表示,必应的数据通过剥离个人信息来保护,只有特定的员工才能访问聊天记录。

该公司上周更新了隐私政策,表示可以收集和审查用户与聊天机器人的互动。

亚马逊(Amazon)、谷歌和苹果(Apple)几年前遭到批评,当时有消息称,承包商正在审查这些公司智能助手的语音记录,偷听医疗细节或犯罪行为。

这些公司现在允许用户选择不向它们发送音频。

必应对问题的类似人类的回答意味着一些用户可能会向机器人输入私人或亲密的信息。

微软发言人表示:“为了有效地回应和监控不当行为,我们对必应分享的提示信息进行了自动和人工审查。”

“这是搜索引擎的常见做法,微软的隐私声明中披露了这一做法。

“微软致力于保护用户隐私,数据通过公认的行业最佳实践得到保护,包括假名化、静态加密、安全和批准的数据访问管理以及数据保留程序。

“在所有情况下,访问用户数据的权限仅限于经过验证的业务需要的微软员工,而不是任何第三方。”

微软上周在其隐私声明中增加了两项说明,以澄清由机器人生成的数据是可以由人类收集和处理的。

数据安全专家对输入在线聊天机器人的信息会发生什么表示担忧。

在早期测试者发现必应对某些问题或长时间谈话后会做出精神错乱的回答后,必应现在会在出现太多提示后关闭聊天,并拒绝回答有关其感觉的问题。

许多公司已经限制了硅谷初创企业OpenAI开发的ChatGPT,或者建议员工不要在该软件中输入机密信息。OpenAI的网站表示,该公司审查了与聊天机器人的对话。

声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱:rally510@qq.com