人工智能和大数据时代的代理人歧视-研究论文
大数据和人工智能(“ AI”)正在彻底改变公司,政府和雇主对个人进行分类的方式。 然而,令人惊讶的是,在现有的文献中,这场革命对反歧视制度构成的最重要威胁之一在很大程度上未被探索或被误解了。 这就是现代算法会导致“代理歧视”的风险。 代理人歧视是不同影响的特别有害的子集。 像所有形式的完全不同的影响一样,它涉及面部中立的行为,对受保护阶级的成员造成极大的伤害。 但是,产生不同影响的做法仅在对面部中立行为的区分者有用时,至少部分地源于产生不同影响的事实,才等于代理人歧视。 从历史上看,这发生在一家公司有意通过依赖代理(例如邮政编码)来代理受保护类的成员的情况下,从而歧视受保护类的成员。 但是,当受保护阶级的成员身份可以预测歧视者的面部中立目标,从而使歧视“合理”时,代理人歧视就不必是故意的。 在这些情况下,公司可能会不知不觉地代理歧视,仅知道面部中立的做法会产生理想的结果。 本文认为,就这种无意但“合理”的代理人歧视的风险而言,人工智能和大数据是游戏规则的改变者。 拥有大数据的AI的固有结构是,每当它们被剥夺了有关合法可疑类的成员资格的信息时,便会遭受代理人的歧视,而合法可疑类的预测能力无法通过AI可用的非可疑数据来直接衡量。 仅仅拒绝AI使用最直观的代理来获得此类可预测但可疑的特征并不能阻止这一过程。 相反,它只会导致AI查找不太直观的代理。 由于这些原因,随着AI变得越来越智能,大数据变得越来越大,代理人歧视将成为反歧视制度日益严峻的挑战,反歧视制度力图限制基于经常是直接预测特征的受保护特征的歧视。 众多的反歧视制度就是这样做的,它限制了基于潜在的预测因素的歧视,这些因素包括先前的状况,遗传,残疾,性别,甚至种族。 本文提供了一系列潜在策略来应对AI造成的代理人歧视风险,包括禁止使用未经批准的歧视类型,强制收集和披露有关受法律保护的类别中受影响个人的会员资格的数据,以及要求公司采用仅隔离非可疑变量的预测能力的统计模型。
- 粉丝: 2
- 资源: 917
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助