人工智能(Artificial Intelligence,AI)发轫于20世纪50年代,至今已经历了三次发展浪潮,不管是实验室阶段还是大规模产业化阶段,研究者们几十年如一日不变的都是推进其技术的进步,希望机器真的有一天能具有一般人类智慧,执行全方位的人类认知能力。
近年来,为了让AI更加健康发展,有一项技术领域正在成为产业界和学术界研究的重点:可信AI,即将人类社会的正面价值观,通过技术赋予到人工智能上,包括可解释、公平性、隐私保护和公平性。
从学术研究层面来说,可信AI主要是针对算法和系统层面的研究,包括安全性/鲁棒性、可解释性、隐私性、公平性、可审计性/问责性、环境保护。可解释性包括学习方法或模型的理论可解释、算法可解释、行为可解释;鲁棒性主要针对模型稳定性研究、攻击模型和防守模型;隐私保护指的是攻击与保护方法直接的博弈,如差分隐私、多中心联邦学习;公平性针对的是各种数据、模型的偏置研究,平等和公正的平衡;而环保指的是寻求高能效策略,更高能效的计算硬件。
与可信AI学术研究不同,企业更多是针对当下的问题,提出解决方案。如2015年,蚂蚁集团启动基于“端特征”的手机丢失风险研究项目,旨在用AI技术保护用户的隐私安全。为了解决了AI中的公平性(Fairness),IBM于2018年开发了多个AI可信工具,在AI系统中采用不带偏见的数据集和模型,从而避免对特定群体的不公平。产业界对可信AI的应用加更加苛刻,容错率更高。很多可信AI白皮书提到,可信AI真正落地起来,需要放到生产流程里面,让其成为一种机制,发挥技术的约束作用。
青年学生是重要的技术人才储备。对于研究可信AI的青年学生来说,对从事可信AI怎么准备,在他们现在的学习和生活中,就应了解学术的前沿,以及业界最新技术趋势,思考哪些技术可以应用到哪些问题上,主动观察了解所处的世界,以及业界的需求痛点和技术瓶颈。比如,最近一档可信AI实战科技真人秀,就联动了全国一些顶尖高校,通过可信AI在工业界“科技反诈”当中的应用,还原了可信AI技术在实际应用中的能力,把学术界和产业界正在做的事,通过大家都能理解的形式打通起来,让技术从业者、技术研究者都深度参与其中。
做AI研究,“复杂度”是一个关键词。环境复杂度、任务复杂度、系统复杂度决定了AI的水平。对它的研究可以揭示AI产生原理,也可以回答AI的终极问题,即对人类命运的最终影响。未来可信AI研究,也要从复杂度分析来看AI为人类带来的价值,更需要学界和产业界共同努力来推动。
以上是北大王亦洲:擦亮可信AI研究名片,需要产学研结合的详细内容。更多信息请关注PHP中文网其他相关文章!