制定旨在应对人工智能系统造成的损害的最合适的民事责任制度是一项挑战,需要一些初步定义。 以机器学习技术为中心进行分析,其特点是自我学习和自主决策的能力,重要的是要考虑到,在大多数情况下,这些系统依赖于参与者的多样性和算法的不透明性。这些因素使得很难确定参与该过程的主体的参与情况,也使得受到此类决定影响的个人不可能澄清决策是如何发生的。 因此,这一特征影响了理解民事责任的传统公式的主要要素之一:因果关系。确定谁对损害事件负责将是本案民事责任问题的主要挑战之一。 从这些考虑出发,可以验证越来越多地使用人工智能系统给用户或第三方带来的潜在风险。
作为这个问题所代表的挑战的一个例子,让我们以年发生在美国亚利桑那州的案例为例,其中一辆自动驾驶汽车碾压了一名行人,导致行人死亡[1]。 根据收集到的证据,特别是对车辆本身录制的视频的检查,自动驾驶汽车不会进行任何旨在避免碾压在不适当的地方过马路的行人的动作。此外 电话号码清单 人们发现车辆甚至没有减速来减轻事故造成的损害。 因此,像本文所介绍的导致人员死亡的实际案例,需要整个社会尽最大努力寻找最有效的民事责任制度构成。案件。 重要的是要认识到,民事责任法律制度的选择不仅影响受害者和对所受损害的必要赔偿,而且还影响技术本身的发展。

毫无疑问,衡量人工智能使用责任归属的安全参数的存在增加了用户的信任并增强了技术的可信度。 当我们认识到机器学习是人工智能的一个方面,在数据库容量和自主决策计算能力的刺激下,呈指数级增长和发展时,挑战就变得更大。 同样重要的是要注意,学习能力是决定是否考虑使用人工智能系统的相关因素。人工智能系统选择的最佳决策具有二元性,因为这正是其最大的吸引力,因为系统提高了人类的能力,创造了替代方案,但如果所选择的决策会给人类带来伤害,也会带来损害的风险。第三方。 当然,损坏是需要承担责任的。然而,有必要认识到,鉴于该技术的特殊性及其复杂性和发展。