(9)调整:若处理的法律依据发生有效变化,则处理必须根据新的合法性基础予以调整。
从竞争的角度看,算法开发者具有内在动力去保持算法的复杂性和晦涩性,这会致使算法难以得到充分的解释。但狭义比例原则也要求以最缓和的手段来实现算法说明的目的。

基于比例原则的思想,为了保护个人权益,要求算法的解释说明,可符合适当性的要求;只要将对算法商业秘密保护的影响控制在最小范围之内,也可符合必要性的要求。五、结论 在应用算法的个人信息自动化决策场合,个人信息处理者(同时也是算法决策者)需要承担相应的说明义务,本文将之称为算法说明义务。综上,专利保护和版权保护在算法保护上都存在不足,并非算法保护的首选之策。应用于商业决策和社会决策的算法更是如此,其往往是大型的算法设计,其中包含的参数和变量极多,且可能经历了数任程序员的修改与更新,其中还可能存在一些不能轻易修改、程序员自己都未必理解的祖传代码,算法的解释说明在技术上的确存在种种障碍苏宇:《算法规制的谱系》,载《中国法学》2020年第3期,第168页。显然,并不是所有的算法决策都涉及公共利益;反而,大多数基于个人信息处理的算法决策可能只涉及个人利益,而不是公共利益。
算法说明可以打开算法黑箱,最大程度地促使关于算法的基本逻辑、主要参数、大致权重、具体用途及潜在风险等关键信息和有用信息的披露,以最大程度地保障个人知情。(三)算法说明义务在《个人信息保护法》实施后的双重规范依据 在《民法典》中,个人信息处理者的说明义务源于其明确规定的告知义务,算法说明义务的渊源也正是告知义务。的确,情感属于意志绝对不可分割的一个有机组成部分,只有智力而没有情感并不是真正的意志,在认知科学上,情感认知乃是法律认知的三大原则之一(另外两个是效率原则和公平原则),所谓情感原则主要是指在某些法律问题上人们激活的主要是‘情感脑,有的是正面的情感(例如倾向于保护弱者),有的是負面的情感(例如对于违背公序良俗的厌恶),参见成凡:《法律认知和法律原则:情感、效率与公平》,载《交大法学》2020年第1期,第17页。
将智力与意志不加区别且等同视之,此乃误解人工智能具有意志之根源。……人类社会的生活关系是复杂的团体构成与团体交涉的关系,并且,各种团体担当着个人无法达到的‘社会性作用。而且,人格的存在也不会消解为具有某种规律性的理性行为的主体。我们绝对不可能使非动物界的东西、骆驼等低级动物及其他人造物成为法的主体,因为它们不具备完全的认知与理解能力,以及适当的自我管理能力。
正所谓:所有的人都是由法律认识和法律关系的总和建构起来的法律主体。对于法人来说,有无自己的意志乃是判断其真假的重要标准。

2.只有法律主体即人格人才能使法律成为活法(living law) 法律要对人之行为发挥其规范功效,就不能只停留于纸面上的存在,它必须从静态的书本上的法(Law in books)转变为动态的行动中的法(Law in action)。可是,一旦我们揭开其智能的面纱,掌握其意志是如何形成的,就知道所谓人工智能意志,其实并非通常所说的心理认知意义上的意志。绝大多数主张人工智能属于法律主体的学者,都将人工智能与法人进行比较,参见[意]乌戈·帕加罗:《谁为机器人的行为负责?》,张卉林、王黎黎译,上海人民出版社2018年版,第158-176页。人工智能的出现不会动摇法律主体的二元结构,人工智能的法律客体地位坚如磐石。
也就是说,法律主体不仅仅是自然人,更是具有人格的自然人,即人格人。陋见以为,此等批判值得法学界深思与反省。人类要制造会说谎的人工智能,基本不可能。而如果从后果主义维度审视此等问题,那就会让人看到另外一幅旷古未闻的奇异与恐怖景象,进而自觉反思并否定自己的固有立场。
我们必须坚持人工智能的法律客体地位,人工智能反客为主之时,必将是人之尊严与人类安全丧失之日。可遗传的人性,即人类心理的统一性,是上百万年进化的产物,现在我们已经不了解这种进化的环境。

关于人工智能自主性的纯技术本质,欧盟法律界已然达成了共识。法人同样具有自己的独立意志,乃是一种目的性和自律性的存在物,属于法律主体。
人类对此恐怕还没有足够的心理准备。人之所以高贵,就在于他唯一可以凭自己的自由意志决定自己是什么和不是什么。是故,富勒将法律定义为使人类行为服从规则治理的事业Lon L. Fuller,The Morality of Law, revised ed., Yale University Press, 1969, p.106.。参见李锡鹤:《民法哲学论稿》(第2版),复旦大学出版社2009年版,第32页。[奥]凯尔森:《纯粹法理论》,张书友译,中国法制出版社2008年版,第58页。人格人之外的任何存在物都不可能作为原告、被告、律师、检察官和法官来参与旨在问责的司法活动。
(二)法人自身具有目的性 作为一种有意志的人之集合组织体,法人具有自身的目的性,它绝不是漫不经心的随机生成物。当我们对智能和自动化有更深刻的理解时,便会经历一番哲学性的争论,即对于人类而言,它们究竟意味着什么。
[俄]伊·亚·伊林:《法律意识的实质》,徐晓晴译,清华大学出版社2005年版,第175-176页。凭借法律主体这一法律实体,法律才能成为法律。
机器人既没有道德水平的高低,也没有宗教信仰的不同,只有功能的强弱。试问我们还需要赋予人工智能法律主体地位吗?如果有一天人工智能真的智能到足以亲自主张自己拥有法律主体地位,我们人类难道不应该立即停止研发和制造此种类人化的人工智能吗?难道人类不应该不遗余力去避免给自己新造一个可以说不的新型物种吗?人类有什么理由给自己创造一个主人,从而使自身沦为客体地位呢? 2.退一万步说,假使人工智能属于爱人的仁者,具有足够的良知,不会奴役制造它的人类,而能够与人类和平相处,那拥有法律主体地位的人工智能也不可能是被动的法律接受者,它们要参与立法,与人类享有同等的立法权,此乃不容商榷的势所必然。
人是法的形成的中心点。而知其所以然的最好方式,当然是从分析法律主体这个概念入手。尽管人工智能具有深度学习能力,但它的出生与死亡都取决于人类,它自身对此没有任何发言权,任何时候它都不是一种目的性存在物。邓晓芒:《灵之舞:中西人格的表演性》,作家出版社2016年版,第147页。
法律主体的行为乃是最为关键的法律事实。对此,人工智能之父明斯基已有超乎常人的冷静判断,他说:情感、直觉和情绪并不是与智能(intelligence)不同的东西,而只是另一种人类特有的思维方式。
人工智能没有自己的童年和青年,没有所谓的集体生活经验,因而,人工智能不可能真正创造出属于自己的语言。而如上所述,人工智能没有心理认知意义上的自由意志,它的每一个动作确实富含暴力计算能力,具有智力的外表,但它决不是所谓人工智能意志控制下的结果。
发明这种技术概念的目的在于,把个人的尊严和法律面前的平等这些理念有效地运用于法的世界,以维持其人格的自由发展,这样才会使人这一概念发挥健全的功能。人不是神,他不可能亦不需要制造出真正全面具备类人性智能的人工智能。
康德说:人,是主体,他有能力承担加于他的行为。即便一厢情愿地授予它法律主体地位,对一切由人工智能动作所引起的权利义务之形成、变更或消灭而言,都不会产生丝毫的现实意义。然而,这和人工智能会一种表达自我的语言完全是两个概念。说人格人之外的存在物如动物和人工智能可以成为法律主体,就像说动物之间或人工智能之间也存在婚姻一样不可思议。
对于这种算法程序的运用及其结果,可以称之为智力,而不应该将之认定为富有心理认知色彩的意志或智能。他的身体的、心灵的状况在法的一切领域里都起着一种决定性的作用。
能回忆过去还能展望未来,拥有时间意识的存在物,才真正具有意志。语言纯然是一个集体的历史遗产,是长期相沿的社会习惯的产物,是千千万万个人的直觉的总结[美]爱德华·萨丕尔:《语言论——言语研究导论》,陆卓元译,商务印书馆1985年版,第4、206页。
在意志方面,它跟自然人和法人相距甚远,完全不在一个层次上。总之,诚如李锡鹤所言,所谓主体支配客体,其实是主体的意志在支配客体。 |