微软开发的聊天工具机器人它已经成为推特上的“流氓”,不仅侮辱用户,还发布种族主义评论和煽动性的政治宣言。
这个实验性的人工智能(AI)聊天机器人它被称为“Tay”,可以通过人类对话来学习。它旨在与18至24岁的年轻人互动。在微软发布这个机器人仅仅24小时后公司我不得不编辑一些煽动性的评论,并说它应该公司正在进行一些调整。
由微软技术与研究和Bing团队开发的Tay可以通过海量匿名公共数据学习如何与人类交流。此外,Tay与一个包括即兴喜剧演员的团队合作。Twitter用户被邀请与此聊天。机器人互动,其他社交媒体用户也可以将他们添加为Kik或GroupMe上的联系人。
微软表示:“Tay旨在与人交流并为他们带来娱乐,可以通过随意幽默的对话与人在线联系。Tay和人聊天越多,她就会变得越聪明,所以和她聊天的体验也会越来越个性化。”
但这种设计的一个不幸结果是,Tay在与人类交流的过程中,被“教”得像纳粹同情者、种族主义者、种族灭绝者一样发布推特消息。与此同时,试图与他们进行严肃对话的用户也发现了这项技术的局限性。他们指出泰似乎对流行音乐或电视不感兴趣。还有人推测,Tay这么快就退化到不适合与人类聊天,可能预示着人工智能的未来。