人工智能已经到了大规模落地应用的阶段,近日刚刚结束的第三届世界人工智能大会上,《中国新一代人工智能科技产业发展报告(2019)》公布的一组数据揭示了这一现状:745家中国人工智能企业中,应用层企业占比高达75.2%,包括智能制造、科技金融、新零售和智能安防等18个应用领域。
“阿里在新零售安全领域应用进行了很多探索,比如电商治理中营商环境的安全,我们还把防火以及食品安全也纳入到这个范畴中来,让安全有了新的定义,”阿里安全图灵实验室奥创在大会上指出,随着人工智能技术的不断应用,安全问题也不断浮现,“既懂安全又懂AI的人才,在未来无疑是最宝贵的。”
图说:阿里安全图灵实验室奥创在第三届世界智能大会上谈安全AI及人才培养问题
放眼全球,人工智能近年来发展势头迅猛。5月16日,两场以人工智能为主题的国际盛会,在天津、北京开幕,中国国家主席***也向两场国际盛会发出贺信:推动新一代人工智能健康发展,更好造福世界各国人民。
奥创参与的世界智能大会专门开设了人工智能与安全的分论坛,来自政府、高校、企业等多方角色共同探讨人工能智能带来的安全风险以及解决之道。“计算机的优势就在于速度和影响规模上,拥有比人类更强大的能力,伴随着人工智能的发展,这一优势会被进一步放大,有可能会出现令人无法察觉或无法防范的攻击,”奥创在讨论中指出,不过,人工智能在辅助安全方面对防御的提升,也会大于对攻击的提升,最终将攻防拉到同一水位上,甚至可能会扭转防守方一直以来的劣势。
近期,“AI换脸”频频登上热搜,引发外界关于技术伦理的争论。“很多技术的出发点是好的,但很多人较少关注技术被滥用的可能性,”奥创表示,对于政府来说,完善法律法规和加强道德规范的建设,而工程师对于技术开发和开放的态度一定程度上需要改变,“对于学界来说,要加强在AI防御的研究,不仅是生成,也包括鉴伪,也要增加在AI交叉学科的投入,比如法学、心理学、道德伦理学等。”
据悉,阿里于今年年初提出安全AI概念,即安全场景中进化出的AI,拥有更强、更多元化的能力,目前阿里安全图灵实验室的安全AI技术应用于知识产权保护、内容安全、新零售安全、智能核身等多个领域,仅人脸识别技术已应用在100多个场景,实现刷脸就医、刷脸进景区、大型活动刷脸入场、配送员认证、刷脸取快递等。
“在安全AI的应用中我们发现,感知类的问题比如图像识别、语音识别等,可以通过信息驱动,但一些认知类的任务,比如电商风险问题中就很依赖于知识图谱等技术,”奥创表示,网络安全的发展历史悠久,大量的专业知识沉淀在少数专家脑海中,所以安全人才的缺口是个大问题,“尤其AI带来更多的安全问题,无论是AI辅助解决安全问题,还是其他方式,既懂安全又懂AI的人才无疑是最宝贵的。”
附发言全文:
我是来自阿里巴巴安全部的薛晖(花名:奥创),也是阿里安全图灵实验室的负责人。该实验室主要负责图像视频、自然语言处理以及语音等技术在安全场景的应用,也包括一部分AI技术自身的安全性研究。
第一个问题是,人工智能发展下是否有可能发生白帽子无法察觉或无法防范的攻击?
我认为存在这样的可能。我们知道,原本计算机的优势就在于速度和影响规模上,拥有比人类更强大的能力;伴随着人工智能的发展,计算机与人类在创造性和认知理解能力上的差距被进一步缩小,而原本就占优的速度和影响规模优势被进一步放大,是有可能会出现令人无法察觉或无法防范的攻击的。
但不要忘了,人工智能不仅可以放大攻击方的能力,防守方也同样可以借助人工智能技术来加固自己的堡垒。当前网络攻击实际是攻防不对等的;相对于攻击方来说,防守方所需要覆盖的面要大得多,受限于人力的因素其实是很吃亏的;比如现在我们有机会能从海量的日志中去发现蛛丝马迹,这在过去靠人力的时代是基本不用想的。我认为人工智能在辅助安全方面,对防御的提升会大于对攻击的提升,最终将攻防拉到同一水位上,甚至可能会让扭转防守方一直以来的劣势。
第二个问题,很多人在问,学术界和工业界研发的差异是什么?
之前颜教授有过总结,我觉得很精辟:学术界是追求极限,工业界则是在商言商。
如果从今天深度学习的几个要素,数据、算力、算法来细说,还是有一些值得讨论的,比如从信息角度,这可能是今天企业最大的优势之一。但有点是肯定的,天下没有免费的午餐。现在很多信息的合规和隐私问题越来越重要,很难能够持续保证收集到足够高质量的信息,更不要说今天的深度学习模型还可能会遭遇到数据污染等攻击;从另一方面来说,今天数据的重要性其实更多证明了人工智能的不成熟:我们的模型没有能够做到足够好的迁移性,或者像人类一样基于小样本学习;但我们越来越依赖信息量,当信息成为我们的核心竞争力之后,我们也越来越不愿意分享自己的信息,这可能是对整体发展不利的。在学术界其实只需要关注固定的开源数据集,没有这样的烦恼。
从算力角度来说,这也算是大公司的优势吧,特别是像阿里这样做云计算的公司。今天我们的确可以在实验环境中调用大量的计算资源来训练模型;但是在实际运用时,我们必须保证模型能够在用户的手机或设备上流畅运转,要考虑前一代甚至前几代机型的兼容性,这是一件非常繁琐的事情。相比来说,在学术界,我们往往较少考虑时间性能等因素(虽然最近一些比赛也设置了这一条件),比如可以为了提升极限采用多模型融合的方式。
从算法角度看,学术界拥有更灵活和开放的思路,能够带给工业界持续的惊喜,高校相比企业拥有更大的试错空间,因为即使项目失败了,至少也把人培养起来了,这才是高校最核心的任务。
还有很多人问,是否需要安全领域的专门AI研究的人才?
我的答案是需要。广义的安全包含的领域很多,包括系统安全、金融风控、公共安全,电商治理也有营商环境的安全;这两年阿里也一直在推进新零售安全,新零售时代下的安全有了新的定义,比如我们会把防盗、防火以及食品卫生安全也纳入到这个范畴进来。
我们在做很多感知类问题,比如图像识别、语音识别时,往往采用数据驱动的方式;因为这类任务的样本很多,不断被产生;即使某个特定领域没有现成的标记样本,因为这类任务对于人来说很简单,不需要专业知识,所以标记的成本也不高。
但对于一些认知类的任务,比如系统安全或者金融风控来说,由于专业知识的门槛以及实时的对抗变异和博弈,稳定和长期的数据难以获得,直接使用深度学习会遇到天花板;譬如今天我们在解决电商风险问题大量依赖于知识图谱等技术。网络安全的发展已经经历了相当长一段的时间了,大量的专业知识沉淀在少数专家的脑海里,但安全人才的缺口仍然是一个大问题。无论是AI辅助人工去解决安全问题、或是采用基于知识工程的方式,既懂安全又懂AI的人才无疑是最宝贵的。
最后,对于GAN所引起的真实性问题,学界和政府如何应对的问题,我认为,AI 研究员经常会想如何去挑战一个难题,但他们很少考虑“我们应该这样做吗?”很多技术出发点是好的,但他们较少关注技术被滥用的潜在可能性。对于政府来说,完善法律法规和加强道德规范的建设。鉴于技术未来可能会引发不可预计的社会问题,可能过去工程师对于技术开发和开放的态度需要得到一定程度的改变。对于学界来说,加强在这一领域防御的研究,不仅是生成,也包括鉴伪。另外也同样重要的是,在AI交叉学科的增加投入,比如法学、心理学、道德伦理学等。
【来源:通信世界全媒体】