人工智能的发展自20世纪中叶起,至今已历经60余年。其发展主要得益于三次重要的技术革新:达特茅斯会议、IBM深蓝战胜世界象棋冠军、以及谷歌无人驾驶汽车和AlphaGo的问世。这些成就不仅推动了人工智能从概念到现实的跨越,而且使其成为了当前社会生活和法律问题的重要参与者。
人工智能的定义在学术界和实践中仍存在诸多争议,其原因主要在于人工智能形态多样且处于不断发展变化中,缺乏统一的外部特征,以及其尚未完全成型,因此难以对其进行精准的类型化定义。目前,多数研究者采用图灵测试作为人工智能合理定义的基础,认为能够模仿人类行为的人工智能,其行为难以被人类所辨别,即为人工智能。而人工智能主要分为广义和狭义两类,其中广义的人工智能,即ANI(Artificial Narrow Intelligence),目前是主要形态,需要在某些环节中进行人为操控;狭义的人工智能,即AGI(Artificial General Intelligence),指的是未来可能出现的高级形态,它将拥有自我意识并能与人类智慧相匹敌。
当前的人工智能尚未达到完全自主和完全意识的状态,它在某些方面已经超越了机器人,但其范围远不限于传统意义上可编程和多功能的操作机。事实上,人工智能在自动化领域达到了一个全新的高度,其目标是解放人类的脑力和体力劳动。在计算机科学领域,人工智能(AI)与智能人工(IA)存在明显的分野,AI更注重机器的自主意识和智能,而IA更侧重于通过计算机技术辅助人类,拓展人类的各方面能力。
随着人工智能技术的不断进步,其所触碰的法律边界问题日益凸显,特别是在侵权损害赔偿责任主体边界、知识产权的保护边界等方面。这些问题成为学者们关注的焦点。目前,多数学者认为需要创设新的法律规制来应对人工智能带来的挑战。然而,现有法律体系和规定在一定程度上能够解决这些问题。例如,侵权损害赔偿责任可由使用者或设计者承担,而人工智能生成的“智力成果”并不在现有知识产权保护的范围之内。这表明现有的法律并非完全无法应对人工智能带来的挑战。
在法律层面上,人工智能的法律主体资格问题尤为复杂。在传统的法律体系中,主体资格通常被赋予具有自我意识和自我决策能力的自然人或法人。然而,人工智能作为一种新兴技术,其是否能够被赋予法律主体资格,即成为权利和义务的承担者,这在法律界还存在广泛的争议。从目前的法律实践来看,人工智能尚未被普遍认可为法律主体,其行为所产生的法律后果通常由开发者、使用者或所有者等人类主体承担。这涉及到法律责任归属、权利保护以及义务履行等一系列法律问题。
因此,随着人工智能技术的不断进步和应用领域的不断扩大,对于现有法律体系和规制的挑战将会不断涌现。立法者、法学研究者和技术开发者需要紧密合作,不断完善法律框架,以适应这一新兴技术所带来的挑战,并保障人工智能技术的健康发展。同时,需要在法律上明确人工智能技术应用的边界和限度,以及如何合理界定与人工智能相关的权利、责任和义务。只有这样,才能确保人工智能技术在促进社会进步的同时,不会给现行法律体系造成破坏,进而保障人类社会的公平正义和法治秩序。