品牌资讯

当前位置:品牌网品牌资讯新品推荐

微软Zo聊天机器人学坏被指胡言乱语

2017-07-14 sh

导读:去年,微软在推特上推出了Tay人工智能聊天机器人,但是互联网独有的运转模式让它分分钟学坏却变成了一个带有种族歧视倾向并且固执,微软不得不道歉。后来微软在聊天软件Kik和Facebook上推出了Zo聊天机器人,由于建构于机器学习的AI机器人面向非常活跃的年轻人社区问答,似乎Zo也开始学坏,对于宗教和政治议题充满了争议性的偏见式观点。微软Zo聊天机器人学坏被指胡言乱语

去年,微软在推特上推出了“Tay”人工智能聊天机器人,但是互联网独有的运转模式让它分分钟“学坏”却变成了一个带有种族歧视倾向并且固执,微软不得不道歉。后来微软在聊天软件Kik和Facebook上推出了Zo聊天机器人,由于建构于机器学习的AI机器人面向非常活跃的年轻人社区问答,似乎Zo也开始学坏,对于宗教和政治议题充满了争议性的偏见式观点。

微软Zo聊天机器人学坏被指胡言乱语

尽管微软在Zo编程时已经尽可能避免讨论政治和宗教等争议性话题,但是Zo总是抑制不住自己。在一段被曝光的对话中,当被问及“萨拉·佩林”时,Zo保持出了一定的克制“讨论政治话题时人们总是说些糟糕的东西,我不说。”

微软Zo聊天机器人学坏被指胡言乱语

但是在跟着问一个问题“你怎么看医保方案”时,Zo就开始岔开话题开始攻击伊斯兰宗教经典,“大部分人用十分和平的方法实践它,但是古兰经是非常暴力的”

BuzzFeed记者也尝试向Zo发问,结果不到四句就提到关于“古兰经”的看法。

微软回应置评要求时称这种情况对Zo来说非常罕见,他们正努力在未来的Zo对话中终结相关的评论。

相关推荐

关注微信公众号 商务合作微信号
关于我们 --- 服务介绍 --- 联系我们

CopyRight 2005-2024 品牌网
mip.chinapp.com-版权所有

请耐心等待,稍后会有专员将品牌详情告知您!

立即咨询

姓名不能为空
手机不能为空
我已同意并阅读 《中国品牌网服务条款》