你的聊天机器人会被Mumbrella360视频干掉的五个原因
在探索品牌应该如何在聊天机器人狂热的新世界中导航的过程中,XXVI的哈米什·卡吉尔(Hamish Cargill)在Mumbrella360的这个视频中分析了世界上一些最伟大的聊天机器人失败案例,以及罕见的成功案例。
在6月份Mumbrella360会议的视频中,XXVI的哈米什·卡吉尔详细分析了聊天机器人可以实现什么,以及为什么你的机器人可能很糟糕。他说,要记住的最重要的事情之一是,“最伟大的聊天机器人想法可以在失败中找到。”
嘉吉公司表示,有史以来最严重的聊天机器人灾难之一发生在2016年初,当时微软基于twitter的人工智能机器人TayTweets。机器人被设定为向与它互动的推特用户做出回应和学习。
最终,机器人开始发表种族主义、歧视女性的言论和观点。在16个小时的时间里,微软撤掉了机器人。
嘉吉表示:“他们做了一些平常的事情,他们道歉,他们说‘我们非常抱歉,我们对发生的事情感到震惊’。”“但你不能收回。”
他指出,虽然Tay并不是技术上的失败,但她对微软来说却是一个失败。
“好的机器人会变坏,因为它们是由人编写的。他们不是人类,但肯定是被人类编程的。他们只会知道我们教他们什么。我们的偏见就是他们的偏见。”
“当然,并不是每个聊天机器人都是种族歧视的失败者,”卡吉尔说,他指的是亚马逊的Alexa开始无缘无故地随机大笑。
在另一个例子中,Alexa监听、录制并将对话发送给联系人。“这是我们都担心的事情。在某些方面,科技正在攻击我们。它对我们生活的影响比我们想象的要大得多。如果这类事情开始蔓延,就会涉及更多的个人问题。”
这段视频来自6月份Mumbrella360会议的一个环节。观看更多会议视频,请点击这里。