加油吧威基基百度网盘资源(加油吧威基基百度云)
试问我们还需要赋予人工智能法律主体地位吗?如果有一天人工智能真的智能到足以亲自主张自己拥有法律主体地位,我们人类难道不应该立即停止研发和制造此种类人化的人工智能吗?难道人类不应该不遗余力去避免给自己新造一个可以说不的新型物种吗?人类有什么理由给自己创造一个主人,从而使自身沦为客体地位呢? 2.退一万步说,假使人工智能属于爱人的仁者,具有足够的良知,不会奴役制造它的人类,而能够与人类和平相处,那拥有法律主体地位的人工智能也不可能是被动的法律接受者,它们要参与立法,与人类享有同等的立法权,此乃不容商榷的势所必然。
与之相比,个人信息保护法固然包含标准、认证的表述,但缺乏对个人信息保护技术作用的支持和肯定。〔2 〕笔者从法律与科技的双重视角出发,重新构想数字时代科技与个人信息保护法之间的关系,探索两者相辅相成的个人信息治理之道。
〔48 〕软PET旨在帮助个体就其与处理者共享个人信息與否,作出更好的决策,包括cookie管理工具、隐私仪表板、人工智能卫士等,后者如识别个人信息滥用并予以反制的人工智能审查员,或者代表个人隐私偏好的人工智能代理人。(2)在信息处理者向社会公开个人信息之时的匿名化,应达到社会一般人在不借助之前既有知识,无法采取合理可能方式识别或后续重新识别特定自然人的标准。法律系统直接介入的困难要求我们在个人信息保护系统中,确立科技解决方案和如果还能用就不必修补的基本原则。为此,先有行业组织倡导、推广技术标准,以此作为企业合规基线,然后借助第三方认证机构加以落实,最后通过监管机构的法律认可,确保其权威性和可执行性。由此可得如下规则:(1)在信息处理者内部使用之时的匿名化,应达到其自身无法采取合理可能方式识别或后续重新识别特定自然人的标准。
其中,对于个人信息经过处理无法识别特定自然人且不能复原的匿名化信息,个人信息保护法第4条将其排除在个人信息以外,因此不受该法的调整。为此,个人信息保护应当是一连串的行动,从信息收集、存储、传输,到信息分析、加工,再到信息向第三方提供和最终删除,所有处理活动都应事先有完整规划,将保护延伸到个人信息整个生命周期,从而实现端对端的安全。使对方明白、清楚,应该通过解释说明的手段来实现。
当然,算法问责制也存在外部监督成本较高、有效性也未必得到保障等问题。随着人工智能和机器学习的发展,算法的专业性和复杂性在不断增加,有些具体的技术细节可能不具有披露可能性。由上可知,在算法说明义务的程度和范围的构造中,需要充分考虑算法设计者或应用者的解释成本问题,并将之与公众的潜在收益进行大致的衡量。一般而言,算法的基本逻辑、主要参数、大致权重、具体用途及潜在风险等关键信息的披露可以确保个人的知情同意,也可以基本保障算法的透明度原则。
我国立法机构部分工作人员编写的民法典释义书藉在解读《民法典》第1035条时,也认为只有让信息主体充分知悉和了解个人信息的规则、目的、方式和范围,了解个人信息被处理的后果和可能影响,才可以保护信息主体的意思判断是自主、真实和合理的,并在阐述时将该条中的明示一词替换为用通俗易懂、简洁明了的语言说明黄薇主编:《中华人民共和国民法典人格权编解读》,中国法制出版社2020年版,第218页。这种博弈可能导致对算法决策系统的干扰和滥用。
商业秘密保护缺乏明确的边界,也不像权利化的著作权、专利权那样存在法定的限制和例外,从而缺乏明确的权利保护的平衡机制,需要在个案中进行利益衡量,这就导致了算法商业秘密保护的复杂性。欧盟官方咨议机构发布的相关适用指南认可了算法解释权,其主要是依据GDPR中有关个人知情权以及个人针对自动化决策的保障措施的规定进行解释See Article 29 Data Protection Working Party,Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP251rev.01, 6 February 2018, p.27, p.31.,也类似地存在双重法律依据。进入专题: 个人信息处理 算法决策 告知同意 说明义务 。(二)算法说明义务的说明范围及其限度 算法说明义务的说明范围及其限度其实是一个问题,可归结为:信息处理者需要就哪些事项进行说明?回答这一问题时,自然也会明确信息处理者不需要就哪些事项进行说明。
其中不仅提出了告知的充分性要求,也明确地提出了说明要求。然而,在另一方面,它也面临着一些障碍。应用于商业决策和社会决策的算法更是如此,其往往是大型的算法设计,其中包含的参数和变量极多,且可能经历了数任程序员的修改与更新,其中还可能存在一些不能轻易修改、程序员自己都未必理解的祖传代码,算法的解释说明在技术上的确存在种种障碍苏宇:《算法规制的谱系》,载《中国法学》2020年第3期,第168页。在我国,已有案例涉及算法系统的商业秘密保护和算法披露之间的冲突问题。
最后是算法说明的范围限于算法本身,还是包括算法的应用?其实,技术本身是无害的,对个人权益造成侵害的往往是算法应用,而不是算法本身。两者的范围大小有别,前者大于后者,并可包含后者。
在算法决策场合,这也是由算法本身的特征决定的。可以说,对于人工智能算法而言,任何解釋说明都难以达到充分性的要求。
算法说明义务正是在正反两方面的理由碰撞之中生存,这些理由的相互碰撞也决定了该项义务的范围和限度。在大数据和人工智能发展背景下,国家知识产权局于2019年12月31日专门修改了《专利审查指南》,明确了抽象的算法本身不能获得专利,但包含算法的技术方案在满足新颖性、创造性、实用性等可专利性条件下可以获得专利《国家知识产权局关于修改〈专利审查指南〉的决定》,国家知识产权局公告第343号,2019年12月31日。此外,告知的充分性要求也蕴含着说明义务。概言之,在我国,算法说明义务不应当限于决策生成之后的解释说明,而应当囊括事前和事后的不同阶段,两者可以分别存在不同的规范依据。其二,可予说明的信息内容还应当具有披露可能性,在算法场合,尤为如此。个人需要获得关于算法决策的解释说明,意味着决策对个人将会产生或者已经产生实质性影响。
他人对其中算法的使用完全可以提出抗辩,认为其使用的是不受法律保护的部分。此外,从商业竞争的角度而言,公开算法、申请专利也非良策。
这对正在形成的算法社会的秩序构建具有不可忽视的社会价值。以商业秘密保护之由,拒绝算法的披露和说明,无疑会产生一定的负面效应。
欧盟《通用数据保护条例》(GDPR)也没有专门规定算法解释权。其实,无论是权利,还是权益,都存在对应的义务,违反义务才会产生法律责任。
据此,算法可以通过纳入整体技术方案的形式间接地获利专利保护,但将算法作为整体技术方案的一部分的保护方式有一定的局限性,他人的侵权也限于对整体技术方案或等同方案的侵权。就技术发展而言,算法只有超越人类智慧,才能给人类带来更多益处。集体决策的基本逻辑是精英决策,一般是由某团体内部的精英分子和权威人士组成小型决策机构。中国可以汲取不同模式的优势,打造出算法治理的升级版和优化版。
但毋庸置疑的是,个人信息处理者需要履行算法说明义务。动态体系论实际上是一种处于严格的构成要件论和宽泛的自由裁量论之间的中间道路,可避免过于严格和过于自由,寻得一种折中又不失理性的选择。
第二,在著作权(版权)保护方面,算法可以分解为一系列的数字化的代码和命令,犹如其他语法字符串,这些代码和命令可以获得版权保护。在如此体系安排之下,个人是否享有算法解释权难免产生分歧。
自然人需要知道个人信息被处理的方式、目的和范围,存在信息需求。在当代社会,权力的行使普遍奉行透明和信息公开原则。
前文也已论及,要求算法的彻底公开和完全披露也不尽合理。欧洲有学者认为,与保护商业秘密相比,GDPR更倾向于强化对个人数据权利的保护,因此,建立在个人数据权利基础上的算法解释权相较于商业秘密具有优先地位See Gianclaudio Malgieri, Giovanni Comande,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, 7(4) International Data Privacy Law 243, 262-264 (2017).。另一方面,具体的技术细节和复杂的数学解释往往超出了普通大众的理解能力,通常也超出了保障个人知情同意的需要。其实,这两点是相通的,充分告知也意味着信息处理者应当将相关内容说明清楚。
毕竟,其中算法可能的确享有商业秘密保护。这两项条件看似明确,实则由于法律规范的高度抽象性,存在许多有待解释的问题。
说明义务不仅在规范和价值层面可以得到证成,也反映着实践需求。如何解决算法的解释说明和商业秘密保护之间的冲突,是一个较为棘手的问题。
至于何为有用信息,这一判断具有事实依赖性,法律上难以形成明确的标准。在论证个人信息处理者的说明义务以及进一步的算法说明义务时,此项义务的产生未必基于契约,双方未必存在信赖,因此,信赖紧密度该项要素不大适合。
评论列表