谷歌正在为数据科学家提供一种保护私人信息的分析工具
谷歌今天宣布,它正在开放其所谓的差异隐私库(differential privacy library),这是一个内部工具,该公司用来安全地从包含用户私人和敏感个人信息的数据集中获取见解。差异隐私是数据科学的加密方法,特别是在分析方面,允许依赖软件辅助分析的人从大量数据集中获取见解,同时保护用户隐私。
它是通过将用户数据与人工“白噪声”相结合来实现的,正如Wired的Andy Greenberg所解释的那样。这样,任何分析的结果都不能用来揭开个人的面具,也不能允许恶意的第三方追踪任何一个数据点,使其返回可识别的源。
例如,该技术是Apple的隐私意识机器学习方法的基石。它允许Apple从iPhone用户那里提取数据,统计上对这些数据进行匿名处理,并且仍然可以提供有用的见解,这些见解可以帮助它改进其Siri算法。
谷歌对chrome也采取了同样的做法,使用随机可聚合隐私保护序数响应(RAPPOR),这是一种差异隐私工具,用于分析和从浏览器中提取见解,防止个人浏览历史等敏感信息被追踪。今年早些时候,谷歌还为其Tensorflow人工智能训练平台开放了一个名为Tensorflow Privacy的工具,让研究人员在训练人工智能算法的同时,利用不同的隐私工具,保护用户数据。
但谷歌指出,还有许多其他领域,如医疗保健和社会学,差异隐私可能是有用的。 这种类型的分析可以通过各种方式实现,并用于许多不同的目的,差异隐私是一种高度保证的分析手段,可确保以隐私保护的同时,解决此类用例。谷歌希在GitHub上开源差异隐私库,可以帮助没有大型硅谷科技公司资源的组织和个人采用同样严格的隐私方法进行数据分析。