欧洲政策研究中心于 2019 年 9 月成立了人工智能 (AI) 和网络安全工作组。 该工作组的目标是引起人们对人工智能和网络安全交叉所带来的市场、技术、道德和治理挑战的关注,既关注人工智能的网络安全,也关注人工智能的网络安全。 该工作组设计为多方利益相关者,由来自不同部门的学者、行业参与者、政策制定者和民间社会组成。 该工作组目前正在讨论人工智能在网络安全和网络安全中人工智能应用的现状和演变等问题; 关于人工智能在网络攻击者和防御者之间的动态中可以发挥的作用的辩论; 越来越需要共享有关威胁的信息以及如何处理支持人工智能的系统的漏洞; 政策试验的选择; 以及可能的欧盟政策措施,以简化欧洲在网络安全中采用人工智能。作为此类活动的一部分,本报告旨在评估于 2019 年 4 月 8 日提出的关于可信赖人工智能的人工智能道德准则的高级专家组 (HLEG) . 特别是,本报告对可信赖人工智能评估清单(试行版)进行了分析并提出了建议,该清单旨在帮助公共和私营部门实施可信赖的人工智能。特别是解决人工智能和网络安全之间的相互作用。 该评估是根据特定标准进行的:评估清单中的项目是否以及如何参考现有立法(例如 GDPR、欧盟基本权利宪章); 它们是否涉及道德原则(但不是法律); 他们是否认为人工智能攻击与传统的网络攻击有根本的不同; 它们是否兼容不同的风险级别; 在清晰/简单的衡量、人工智能开发人员和中小企业的实施方面,它们是否足够灵活; 以及总体而言,它们是否可能对行业造成障碍。