结合大数据和机器学习算法,自动决策工具的力量带来了与恐惧一样多的希望。 许多最近颁布的欧洲立法 (GDPR) 和法国法律试图规范这些工具的使用。 撇开数据保密性和竞争障碍的明确问题不谈,我们关注歧视的风险、透明度问题和算法决策的质量。 面对学习算法的复杂性和不透明性,法律文本的详细视角揭示了重要的技术中断的必要性,以检测或减少歧视风险,并解决获得自动决定解释的权利。 由于开发人员和首先是所有用户(公民、诉讼当事人、客户)的信任至关重要,因此必须在严格的道德框架中部署利用个人数据的算法。 总之,为了满足这一需求,我们列出了一些待开发的控制方式:机构控制、道德章程、附加到标签问题的外部审计。
评论星级较低,若资源使用遇到问题可联系上传者,3个工作日内问题未解决可申请退款~