先进的分析和人工智能是强大的技术,它们的优点以及它们对隐私,平等,公平和透明性构成了新的威胁。 现有法律尚未充分保护免受这些威胁。 这导致一些组织追求所谓的“数据伦理”或“ AI伦理”,以使先进的分析和AI更加符合社会价值,并合法化其对这些技术的日益使用。数据伦理学的研究试图确定组织应追求的伦理原则,或规划将组织推向这些伦理目标所需的法律和法规。 尽管这两条查询线很重要,但文献却缺少关键的第三维度:有关组织如何实际管理其使用高级分析和AI可能产生的威胁的经验性研究。 良好的法规设计需要这样的知识。 然而,尽管对组织如何“实地”管理隐私进行了重要研究(Bamberger和Mulligan,2015年),但在高级分析和AI治理方面却鲜有此类工作。本报告填补了这一空白。 作者以私营部门组织为重点,采访了被同行认为是高级分析和AI治理领导者的企业隐私经理,以及就此主题为他们提供建议的律师,顾问和思想领袖。 他们还调查了范围更广的隐私管理者。 该研究试图回答有关商业数据道德管理的三个基本问题:(1)领先公司如何将其使用高级分析和AI对个人,团体和整个社会构成的威胁概念化? (2)如果法律还没有要求公司降低这些风险,那么为什么他们追求数据伦理? (3)公司如何追求数据伦理? 他们为此目的使用了哪些实质性的基准,管理流程和技术解决方案?作者先前在SSRN上分享了他们的初步发现。 这份最终报告提供了更全面的信息。 该报告应为立法者和政策制定者为规范高级分析和AI所做的努力提供经验基础,与此同时,报告还为感兴趣的组织提供了有关如何改善其数据道德管理的想法。