不只是Tay,那些年被网友带坏的机器人们
科技始终来自人性,人工智能或许也不例外。微软聊天机器人Tay 上线没多久,就被网民教成否认纳粹大屠杀的种族狂热分子,最后紧急下线。Tay 被带坏证明了一件大家都心知肚明的事情:躲在网络后面的人,可以很邪恶。
以18-24岁社交媒体用户为对象的Tay,原本是一个类似青少年的人工智能机器人。Tay 上线后,遭到网友“协同攻击”,变成了充满希特勒思想的坏孩子,歧视各种社会弱势,在推特上发布伤人言论,微软在24小时内紧急下线。
Tay 原本是设计来与推特网友互动、学习,会说些可爱的笑话、发布令人会心一笑的图片,但网友故意把它“调教”成种族歧视分子,一直“喂”它种族歧视和冒犯性言论。
微软也曾在中国出类似的聊天机器人小冰,但命运没有Tay那么坎坷。约有4,000 万人和小冰聊天,创造了成功、愉快的对话。微软表示,小冰的美好经验,让他们想要在文化完全不同的环境试试另一个AI。
于是Tay上线,然后微软发现西方网友对聊天机器人的反应似乎不太一样。喜欢教菲比小精灵骂脏话的美国人,兴致勃勃地想要教坏立意良善的Tay。
微软表示,虽然工程师有设计避免恶作剧、防范网络小白的机制,还是太过轻忽这些攻击,加上某个弱点,导致Tay 在推特发布了非常不适当、可憎的话语和图片。除了Tay,先前也有其他 AI 机器人受害。
Bot or Not?
Anthony Garvan2014 年设计出“Bot or Not?”,算是图灵测试的可爱变异版。玩家会与一名对话伙伴随机配对,要他们猜猜对方是真人还是机器人。Bot or Not?跟Tay 一样,会从对话中学习。Anthony Garvan说,Bot or Not? 在 Reddit 掀起热潮后,事情开始变得有点诡异。“兴奋降温后,我沉浸在胜利的喜悦中,一边开始跟它对话。”
Anthony Garvan:“嗨!”
机器人:“黑鬼。”
Anthony Garvan检查了一下发生什么事,发现有些用户知道这是机器人,就一再使用某些字汇,教机器人一堆种族歧视的字眼,他只好把这些记忆洗掉。
Anthony Garvan反省后指出,Bot or Not?和Tay 都有一样的问题。“我相信微软和其他机器人研究者太过沉浸在资料排山倒海的威力与魔力当中,忘记了这些资料是来自我们居住的这个很不完美的世界。”
MeinCoke / 可口可乐的 MakeitHappy 机器人
MeinCoke 是Gawker于 2015 年创造的机器人,而它在推特发布希特勒《我的奋斗》部分章节。如果你记得可口可乐把恶意推特做成可爱 ASCII 艺术的短命活动,或许已经猜到这是怎么回事。可口可乐的 #MakeitHappy 机器人,想要把这个世界变得更快乐,结果却让推特自动发布了一堆非常可怕的东西,再排成“happy”的形状。
Gawker 员工后来发现,自动程序会让可口可乐推特帐号接收到白人优越主义组织“White Nationalism”口号,该组织写的机器人会自动在推特发布希特勒自传言论,并回应 #MakeitHappy 主题标签,害可口可乐推了一堆歧视文章。
Watson
约 5 年前,IBM 科学家决定教 Watson 一些网络用语,喂它吃了整部 Urban Dictionary。于是 Watson 学会了大量创意的骂人字眼。《Fortune》报导,Watson 无法分辨 Urban Dictionary 满坑满谷的礼貌语和亵渎,最后研究团队只好再把这些字眼从 Watson 的脑海里抹去。
总之,如果微软想要Tay 反映出网络教了它什么,那微软成功了。但如果微软想要一具友善的机器人,可能得去找别的老师。