没有合适的资源?快使用搜索试试~ 我知道了~
司法对可解释人工智能的需求-研究论文
需积分: 9 0 下载量 5 浏览量
2021-06-09
12:57:52
上传
评论
收藏 165KB PDF 举报
温馨提示
试读
22页
关于机器学习算法的一个反复出现的问题是它们作为“黑匣子”运行,因此很难确定算法如何以及为什么会达到特定的决策、建议或预测。 然而,法官将越来越频繁地面对机器学习算法,包括在刑事、行政和侵权案件中。 本文认为法官应该要求对这些算法结果进行解释。 解决“黑匣子”问题的一种方法是设计系统来解释算法如何得出结论或预测。 如果法官要求这些解释,他们将在塑造“可解释人工智能”(或“xAI”)的性质和形式方面发挥开创性作用。 使用普通法的工具,法院可以制定 xAI 在不同法律背景下的含义。 让法院扮演这个角色有很多好处:自下而上建立的司法推理,使用对事实的逐案考虑来产生细微差别的决定,是为 xAI 制定规则的一种务实的方式。 此外,法院可能会刺激生产不同形式的 xAI,以响应不同的法律环境和受众。 更一般地说,我们应该支持公共参与者更多地参与 xAI 的塑造,而 xAI 迄今为止主要掌握在私人手中。
资源推荐
资源评论
资源评论
weixin_38682161
- 粉丝: 3
- 资源: 972
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功