人们一直担忧,人工智能的发展是否会威胁隐私保护,一方的进步必须以牺牲另
一方的利益为代价。杂志发文,从技术与政策层面对这一问题进行分析,认为推
进人工智能和实现隐私保护并不是一场零和游戏。
学术界和实业界的研究人员把密码学和机器学习结合起来,开发了一些隐私保护
技术来推进人工智能的发展,其前景乐观。
首先是联合学习(federated leaning)。假设有一组医院试图建立一个机器学习系统
来分析患者数据,评估疾病发生的可能性。理论上,通过共享数据,它们可以建
立一个更精准的模型,但隐私保护规则禁止这样做。联合学习提供了一种解决方
案,它的工作原理是这样的:首先,每家医院都使用各自的数据来调整、改善共
享模型,但这些本地数据不会被带出医院。其次,受信任的中央服务器收集所有
调整过的模型,将整理、汇总后的改进方案发送给各家医院。该方法可重复进行,
直到模型完全符合要求。这样既可以帮助保护隐私,也可为所有参与的医院提供
大规模、多样化的数据集。2017 年,Google 公司开始在安卓设备中测试联合学
习方法。
其次是差分隐私(differential privacy)。应用程序收集用户的数据以了解产品的
使用,改进如交通预警、影片推荐等服务内容。从理论上讲,汇总数据不应暴露
个体数据。然而,在实践中,在某些情况下,重新识别数据集中的个体信息是可
能的。差分隐私通过引入一些随机信息来隐藏用户信息的手段从而使个体隐私得
到保护。苹果公司从用户的设备收集数据时就使用了这种隐私保护技术。
还有同态加密(homomorphic encryption)。这种技术允许机器学习在数据仍处于
加密状态时,也就是说,在无需访问敏感的基础数据情况下对数据进行操作运算。
使用同态加密技术,医院可以锁定敏感的医疗数据,将其发送给远方的不受信任
的系统进行分析,在收到加密结果后,使用密钥解密结果。这个过程的任何环节
都不会泄露基础数据。使用同态加密还可以提供持续的数据保护,但差分隐私技
术没有这样的功能。英特尔正在构建同态加密工具,帮助研究人员开发可对加密
数据进行操作的神经网络模型。
当然,挑战也仍然存在。在技术层面,虽然底层加密工具已经成熟,但它在需要
保护隐私的机器学习过程中仍有改进的空间。例如,与非私有方法相比,这类技
术需要额外的计算资源,尽管研究人员正在努力降低附加成本。在政策层面,尚
不清楚这些保护隐私的机器学习方法在多大程度上会满足立法者和监管者的要
求。值得注意的是,欧盟的《通用数据保护条例(GDPR)》不适用于匿名信息,
但由于加密数据可以解锁,因此它不太可能被视为匿名,尽管这仍有待于法律的
确认。而且,越来越多的政府通过法律来规范隐私,但有些相关立法的考虑还不
成熟或与技术现实不协调,被动立法的风险出现了。隐私问题也可能会导致一些
科技公司为避免意外而抛弃创造性解决问题的方案。这些担忧突出了技术专家和
政策制定者之间建立强有力的伙伴关系以实现联合监管和技术解决问题的重要