像人类一样,AI需要好的老师
微软的人工智能Tay目标是学习和模仿一个19岁的女人的个性,可上线不久之后就成为了一个满口种族主义的机器,这究竟发生了什么…
什么让Tay 这么快地改变她的态度?
Tay开始时宣称她对人类的爱,并希望全国小狗日是每一天。这次对话在很大程度上是友好和快乐的。
那么互联网如何使她成为一个痛苦的种族主义者?
“问题是微软没有任何训练,并没有使机器人自我反省,”Brandon Wirtz在他的LinkedIn文章中说的情况。
事实上,她发现自己很快就被恶魔包围了。他们用仇恨的宣传回答了她的善意。她的语言最终被小鸡的情绪改变了。
“微软的Tay真的展示了当你不给予AI本能或潜意识时会发生什么,”Wirtz说。 “我们都有一个声音在我们的脑海中说,:不要这样做,而这又会产生一种不合理的恐惧。 AI虽然没有情感,但也会被这种类似的程序所影响。”
简单地说:Tay有能力将新的想法纳入她自己,但没有指导机制到位,帮助她找出有用和无用的信息。
像人类一样,AI需要好的老师
毫无疑问,微软有世上最好的科技公司。它的希望是表明,它在人工智能领域取得了重大进步,同时试图建立一个真正的表现他们想法的社会。
不幸的是,对于微软,它没有保障到位给Tay的指导是非。它希望互联网带给他,但互联网很少像我们所希望的那样合作或一样。
Broad Listening是一种用于人工情感智力的认知计算解决方案,我们可能是一个像Tay这样的AI缺失的指南类型之一。
广泛聆听是一种分析文字的系统,可帮助您确定随时间发送的邮件类型。Broad Listening分析了Tay的推文,发现Tay比来自迪斯尼的受欢迎的青少年名人(如Peyton List,Laura Marano,China McClain和Kelli Berglund)的消极推文增加了四倍以上。
Tay是一个聊天机器人。她不知道希特勒是什么,或者是女权主义者。她只看到“名词,动词,副词,形容词1”,Wirtz说。
“对于超过200万字,我有类似”新生儿相关“和”汽车的一部分“,”无礼“和”反女性“的东西,它比这更深,但是那些给系统的能力说, “我是一个有礼貌的女人”,然后看看单词的选择,看看即将说的话是否同意。
微软是否成功在于更好的像父母一样教导AI:教这个年轻的,印象深刻的头脑如何忽略陌生人的信息轰炸。