第一批人工智能已经下岗了
AI 第一批人工智能已经下岗了 AI | 2018-07-20 09:39 第一批人工智能已经下岗了 脑极体

瑞典的一家在线银行Nordnet准备对自家的AI员工Amelia炒鱿鱼。

叫嚣着要取代全世界的人工智能,终于在最近陷入了失业的烦恼。


据报道,瑞典的一家在线银行Nordnet准备对自家的AI员工Amelia炒鱿鱼。Amelia去年夏天刚刚入职Nordnet,其日常工作就是帮客户开个银行户头、处理一些银行数据等任务,正常来说速度肯定是应该比工作人员要快,银行的工作效率和效益也该有个明显的提升。


事与愿违,这一年来,Amelia好像并没有表现出一个三好学生该有的能力。




其实Amelia并不是第一个被解雇的人工智能。今年一月份,英国的一家超市就解雇了一个上岗仅仅一周的导购机器人Fabio。超市的初衷是它一能吸引顾客,二能帮助卖货。然而几天之后,他们发现这两件事儿Fabio一件都没做好,甚至有些顾客看见它都绕着道走。


这是怎么回事?正常来说,AI在提高工作效率这方面是共识,但上岗不久就被炒鱿鱼,多少令人有点意外。但细细想来,以如今AI发展的程度而言,其被解雇其实也算不上是意料之外的事情。


应聘自称技术流,

上岗才发现活不好


在所有最可能被AI取代的工作当中,银行工作首当其冲。原因在于,相较于其他行业来说,银行拥有庞大而又相对完整的数据积累,而进行数据分析又正是AI的拿手好戏。一个要算,一个能算,简直无缝贴合。


但这并不意味着AI在银行就可以畅行无阻,至少这并不是如今的AI能完美而为之的。尽管在实验室中,开发者们已经针对AI可能遇到的各种问题进行了全面模拟,AI也在这过程中表现得游刃有余,但一旦投入实战,其实用功能仍然有可能会受到挑战。以Amelia被炒为例,其可能是由于以下两个原因所致。


第一,算法的问题。算法存在问题,其对数据的处理就会存在误差。虽然银行拥有完善的数据,但如果没有合适的算法进行处理,或用了不合适的算法进行处理,其得出的结果仍然是不可接受的。比如在分析报告这方面,目前仍然是人类分析师为主,原因就在于AI对动态性很强的金融业务上可能存在分析的误差。而银行做的毕竟是钱的生意,总是出错,客户是肯定不干。




第二,沟通的问题。既然是用的AI系统,那么其要解决客户问题就一定会涉及到语言沟通。银行是一个非常繁忙的金融机构,我们能看到的场景就是银行每天都是在排队。如果AI的连续性对话和专业性学习不彻底,其在于客户沟通的过程中很可能会答非所问,造成迟钝、误解等问题,这一定会影响工作效率、消磨客户耐心。


而Nordnet又是一家线上银行,其对AI的语义识别对话能力的要求自然更高。这点儿类似AI客服,说不好话就卖不了货,卖不了货就只能等着被炒了。


对导购机器人Fabio来说,沟通不畅或沟通体验不好一定是超市将其“辞退”的重要因素。也就是说,不是打着AI的名头就一定会生意兴隆。最核心的地方在于,技术是否真的成熟到足以应对任何情况。毕竟客户把AI买过去不是为了让它学习,而是挣钱。


本想事半功倍,奈何入不敷出


无论是雇佣AI还是雇佣人力,公司的目的只有一个:赚钱。但公司花了大钱把你招来,你却坐吃等死,那就只能将你扫地出门了。


据Nordnet称,去年为了引入AI技术,公司付出了巨额代价。整个2017年的年利润仅为2.47亿瑞典克朗,是2012年以来的最低水平。虽然不能确定银行利润的降低一定是引入AI所致,但真正实用的消费级AI产品价格尚且不菲,遑论以提高利润为终极目的的企业级AI解决方案。




Nordnet从AI系统提供商IPsoft购买的是一套解决方案,而不仅仅是一个AI柜员,花了多少钱我们也不得而知。但是看一下各大公司在研发AI方面的资金投入:百度每年投入100亿元、欧盟计划2020年之前投入15亿欧元、2014年以来中国人工智能累计投入超过600亿元……不仅如此,AI人才动辄百万美元的年薪,这些成本都会加在销售给C端的产品上。


因此,正处于前期布局、投入、研发的AI,有一点是可以肯定的,那就是成本居高不下。


从这个角度来说,能在这个时候冒着赔本的风险去品尝AI的公司,都是勇敢者。


但是一旦发现投入与回报不成正比,甚至因此而亏损,公司则为营收考虑不得不对AI下刀。毕竟AI的意义在公司看来,绝不是个花瓶。所以,可能在一段时期内,由于研发的持续投入,AI的使用成本仍然不会是一个小数目。对公司来说,AI的工作做不好,和AI做好了自己的工作却没有挣着钱,没有任何区别。解雇,也就是个时间问题。


物不能尽其用,锅不能AI背


当然,所有的锅也不能全都让AI背了,毕竟能力有多大它自己也没办法。这中间还可能存在的一个问题是,开发者和使用者的断层。


这种断层体现在,开发者穷尽己之所能,没日没夜地做出了自己认为非常完美的产品,觉得考虑到了实际过程中可能产生的所有问题,应用起来完美无缺,结果,客户不会用。


这就是个大写的尴尬了。这种感觉就像你买了个上万块的手机给奶奶用,她却只拿来照镜子。蕴含了开发者满腹才华的产品,在客户手里并不能发挥出其全部效能。AI如果是因为这个被解雇,实在是有点冤枉。


事实上,这种情况的确值得注意。在关于AI会取代人类的什么工作的大讨论之后,有人就抛出了“人工智能不能取代教师,但不会用人工智能的教师将会被取代”的观点,其中的教师可以被换成医生、律师、工人等等诸多职业。可以说,会AI就像会用手机一样,未来将成为必需品。但对很多人来说,手机的功能并没有被充分挖掘,所以他们很难区分出5000元的手机和1000元手机的差别:不都能打电话装软件?




所以,要让客户能充分发掘AI的潜能,或许可以从以下两个方面出发。


1. 开发者“私人订制”。开发者想做好一件东西,而客户想要的是用好一件东西。这就要求产品一定是最适合客户需要的。根据客户的需求,体现出开发产品的差异化,让客户在使用的时候能够更快地上手,才是发挥AI能效的第一步。


2. 客户的技能培养。一般来说,客户不需要知道AI到底是怎么做的,只需要知道怎样才能让它按照自己的指令工作就够了。但即便是这样,还是有很多人存在着学习的困难。比如很多年纪大的老师一辈子不会用电脑,也不愿意学,投影仪就成了摆设。因此,开发者在进行产品交接的时候提供全套的技术指导,才能在产品贴合自家需求的情况下,还能熟练操作,实现AI产品的价值最大化。


那么,通过这种方式来解决开发者和用户之间的断层,显然对洗白AI“无用”的冤屈是有积极意义的。


人机协作效果好,

AI“独立”难有为


这就完了吗?


实际上,被解雇的AI只能算作个案来对待,并不能将所有的AI应用一概而论,毕竟有更多的AI应用在如火如荼地燃烧着。这些应用身上也并未出现过所谓“不管用”或者“解雇”之类令AI尴尬的字眼。


那么,导致AI解雇是否另有原因呢?


我们发现,被解雇的AI和应用得风生水起的AI之间,存在着一个变量,这个变量就是:人为干预。而根据人为干预程度的不同,我们可以把这两类AI分为独立式AI和半独立式AI。


所谓独立式AI,是指人类没有干预或干预较少、AI自主分析决策程度较高甚至完全自主决定的人工智能类应用。Amelia、Fabio基本都属于此类,因为与客户或消费者进行对话、分析数据并得出结论的过程,基本上是没有人操作的,在此过程中其完成了与客户的直接接触。我们常见的内容平台的审核方式,很多也可以算作此类。因为AI可以自主进行审核、通过或者驳回,在这个过程中没有人工参与。这种独立式AI很容易产生问题,比如内容平台频频出事,虽然很多平台都增加了人工审核,但是,谁知道呢?




而半独立式AI则指的是人类干预较多,AI只是承担前期的观察、分析,最多再加一点初步结论,最终的决策仍由人类完成的人工智能类应用。比如用AI做各种预测、帮助医生读X光片、招聘、识别古文字、抓在逃犯等等。显而易见的是,这类更多有人类干预和把控的AI反而是运行的态势颇为良好。


也就是说,目前AI要完全独立地承担工作任务,也就是“替代”人类,可能还有些难度。有企业耐不住性子而赶鸭子上架,AI也很无奈。正因如此,人们更多地称AI为“助手”。从“助手”向“替代”的转变过程,可能就是AI降低自己被解雇概率的过程,也更是人类AI技术进步的一个过程。


当然,等到AI替代了人类之后还是会有“解雇”情况的发生,只不过这次被解雇之后顶上的不是人类,而是更优秀的AI。到那时候,开发者又将面临另一场永无休止的战争。

-END-

本文由脑极体投稿一鸣网,本文仅代表作者个人观点,文章非经授权请勿转载,

向一鸣网投稿,请点击投稿按钮,详情请参阅《一鸣网投稿须知》。

互联网人都在关注的微信号

难道你还没有关注?