2016年人工智能典型“失败”案例
时间:2019-12-01 10:01

  2016年,人工智能及其相关领域受到产业界、学术界乃至全社会的热议。与此同时,人们对人工智能的担忧也从未退去:人工智能会在什么时间、以什么方式出问题?临近年终,多名人工智能专家分析了2016年人工智能典型“失败”案例,认为这些错误集中出现在人工智能系统的机器学习和任务执行阶段。

  多位人工智能专家认为,种族主义和种族歧视是目前人工智能系统存在的主要问题,这可能和系统的研发设计者本身的种族有关。

  2016年,美国多地法庭开始使用人工智能系统预测一名罪犯再次犯罪的几率,作为给予罪犯缓刑等的依据。然而,对佛罗里达州法庭使用的一种名为“少数派报告”预测系统进行了调查,发现黑人被系统预测会再次犯罪的几率比其他族裔高出45%,其中黑人被预测再次犯罪的几率比其他族裔高出77%。数据显示,这一人工智能系统的准确率只有20%。评论说,所谓犯罪预测系统唯一能判断的仅是受调查对象的种族而已。

  2016年,美国多家公司联合推出了“世界首届人工智能选美大赛”,参赛者在网站上上传照片,由人工智能算法“精确”评估参赛者的美。然而,这场比赛的获者都是白人。美国易斯维尔大学网络安全实验室主任扬波利斯基指出,很明显这一人工智能的学习训练样本不够,美人被在固定的模式中。

  为了开拓年轻人的市场,微软公司今年春季在社交网络推特上推出了人工智能聊器人Tay。然而上线不到一天,用网友的话说,Tay就成为了一个“热爱、女性的妖怪”,微软随即将Tay紧急下线月的围棋人机大战中,人工智能系统阿尔法围棋以4比1战胜韩国棋手李世石。新南威尔士大学人工智能教授沃尔什表示,阿尔法围棋输了一局,说明李世石还是发现了这个系统使用的“蒙特卡洛搜索树”中的漏洞,这一局可以看作是2016年人工智能的一次失败,人工智能还不完美。扬波利斯基则认为,李世石胜出的一局还是在正常操作的范围内。

  5月,一辆自动驾驶模式的特斯拉在美国佛罗里达州与一辆拖车相撞,导致司机死亡。事故发生后,特斯拉公司发布了自动驾驶软件的重要更新,公司首席执行官马斯克称,更新可以防止类似事故的发生。

  7月,位于硅谷地区的斯坦福购物中心,一位母亲称,购物中心重约135公斤的“K5安保机器人”撞倒了自己16个月的孩子,并从孩子的脚上轧了过去。

  扬波利斯基等人认为,这些案例说明,保持机器学习数据的多样性是防止人工智能系统产生“”的关键,相关伦理研究更是应该走在技术研究的前面。 据

      大红鹰娱乐