2017-06-05 sh
人工智能不能仅仅掌握在少数公司或者少数人手中,应当透明和开源。同时,对人工智能的治理规范,需要在科技公司之外,吸纳社会各方面的意见参与。如果不能建立技术之外的一系列框架,木桶的短板效应将使人工智能永远也无法抵达完美的峰顶
人工智能的成长速度令人惊讶。在去年与韩国著名棋手李世石对战时,阿尔法围棋还在第四局频出昏招输掉比赛,但在今年的人机大战中,它对世界第一人柯洁则几乎显现出了不可动摇的优势。按照阿尔法围棋开发者们的说法,这个版本能够让去年人机大战与李世石对战的版本3子,阿尔法围棋未来的目标是探寻完美的棋局。
与阿尔法围棋一样,人工智能一日千里的全速前进,来自于硬件研发的不断突破,算法的不断优化和对海量数据分析的不断深入。通过苹果、亚马逊和中国的阿里巴巴、百度、腾讯等一系列科技巨头对人工智能基础研究的深化和应用范围不断拓展,人工智能不仅速度更快、效率更高,对计算能力的需求也在不断下降。一言以蔽之,人工智能正在变得更简单、更聪明、更便宜。
尽管阿尔法围棋在围棋的技术水平上正在达到人类前所未有的高度,但人工智能还远远难言完美。在人工智能从基础研究落地商业应用的过程中,尚有大量技术之外的瓶颈问题需要解决。但各方面能否对这些问题形成共识,建立标准,将直接关系到普通人能否消除对人工智能的顾虑。
问题一方面来自对隐私范围的界定和对数据的保护。海量数据可谓人工智能发展的粮食,无论是算法的优化,还是之后对人们提供的决策建议,都需要在数据的海洋中寻找头绪。与此同时,随着技术的不断进步,更多维度的数据,包括行为数据、消费偏好、地理位置数据等,都被纳入考察维度中。
因此,包括对隐私数据边界的划定,对数据拥有权的权利划分,甚至包括数据交换的规则、数据泄露的惩罚措施,等等,都需要重新界定。但目前来看,各国并没有统一的标准,我国现行立法也相对碎片化,执法部门权限和职责也不清晰。能否合法地使用数据,将是人工智能持续健康发展的第一道坎儿。
另一方面,问题也来自于人工智能自身的安全问题。这种安全问题并不是所谓的机器威胁论,从目前人工智能的发展来看,人工智能本身仍然是人类创造出来的工具,本身并没有意识,和人类并不构成竞争关系。能够创造工具、利用工具来解决问题,本来就是人类在智能上的巨大优势。但即使如此,专家们依然认为,人工智能必须被正确而安全地使用。
安全来自算法优化的过程需要受到监管和制约。比如,个性化的电商购物推荐、个性化的新闻推送等,如何避免掺杂利益取向,如果有利益掺杂,又该如何向用户公示和说明。否则,像竞价排名毫无提示地混合在搜索结果中一样,相关推送在公平和公正上自然会遭到质疑。
安全也来自共享。业界专家普遍认为,人工智能不能仅仅掌握在少数公司或者少数人手中,应当透明和开源,同时还应对人工智能的治理规范,需要在科技公司之外,吸纳社会各方面的意见参与。因为,人工智能正越来越深入地渗透进每个人的生活。
没有规矩,不成方圆。如果不能建立技术之外的一系列框架,木桶的短板效应将使人工智能永远也无法抵达完美的峰顶。