
从智能客服到智慧司法,从智慧家居到电子眼测速,从猜你喜欢到朋友都在看……算法早已浸透人类生活每一个角落,在带来高效、便捷、舒心的同时,也产生了算法歧视、数据盗取等负面影响。全面进入算法时代的背景下,将算法纳入法律规制势在必行。本文提出一些策略,抛砖引玉。
▌一、明确算法公开的方法及限度
公开是程序正义的应有之义。算法正是人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制。即使算法程序运行本身客观且能得到确定结果,但是谁能确信程序的设计本身便是合理的?从算法设计、到算法培养再到算法的实际运作,全方位的公开透明正是保障用户的知情权、促进算法完善和消除算法歧视的关键。算法的公开需掌握一定限度和方法。
(一)算法公开不能损害研发者商业秘密
算法本身具有极大能量,是开发者宝贵的财富。具有成长性的算法属于商业秘密,现阶段网易云音乐精准的每日个性歌曲、淘宝对用户最可能购买商品的预测、美团对骑手的迅速调配和派单方法等都成了各大软件巨头的核心竞争力,若将算法全然公开,轻则容易被掌握算法能力者利用规则漏洞,赚取不平等优势;重则被黑客攻击服务器,导致数据泄露甚至影响上亿用户的日常生活。公开并非全然揭露,而是有其限度,需在算法公开与知识产权保护、促进科技创新等方面找到平衡。
(二)在平台上的公开需以普通用户能理解的方式
算法公开的重要目的是保障用户知情权,以及对算法进行大众监督。绝大部分用户并非算法方面的专业人员,对于精深、庞杂的算法内容无时间也无能力进行了解,故而算法需以用户能理解为原则,如采取尽可能通俗的语言,或使用比喻等方式,以方便用户使用为目标,在平台上公开。
算法平台应向用户明确算法的具体内容,如算法系统设计的原理、目的,算法的运行规则和使用影响等,让用户清楚地了解算法系统有哪些功能,对用户有哪些帮助又有哪些负面影响,保障用户知情选择权。算法平台亦需要依据法律,建立强制性的信息披露机制,持续、及时地公示算法系统的运行状况。遇到bug和技术缺陷也应及时通知用户,使用户了解并能进行防范。
(三)向专业机构公开
因算法最大的不公来源,也是最可控的来源,是其程序设计,包括输入的数据和隐含的价值取向。又,其具有极高的专业性和复杂性;再,需要保护研发者的商业秘密。那么,设立算法监督评估专业机构是算法公开最佳方法。通过其制定算法伦理,对算法正义和价值进行引导。建立可量化的算法影响评估程序指标体系,根据应用场景和适用范围,对算法进行分级,并赋予不同程度的保护和公开义务,以及应急措施。所有算法,经该机构认证,方可投入使用。
▌二、以人的尊严和价值优先为原则
(一)畅通算法运行中的反馈渠道
任何制度都应依据新情况、新需要适时修改算法也不例外。而算法公开正是为算法朝着绝大多数使用者即社会的利益而非掌握算法的特权者的利益进行修改打下了基础。为照顾多样化需求,算法也应提供多样化选择,不仅有多样化的产品可供享用,也包括“拒绝多样化产品”的自由。现阶段尤其多软件和网站以“个性化推荐”为由,肆意收集用户个人信息;将“大家都爱看”放在首页,名为服务,实为广告,强迫用户接受不必要资讯。算法正义,不仅包括用户之间“同等情况,同等对待”,也包括用户的自由选择不被算法提供者抹煞,在用户和算法提供者之间寻得平等与正义。当机器决策引发异议,作为算法应用对象的人应当有对算法提出质疑和表达自己观点的畅通渠道。
(二)加强算法运行的人工干预
即使打开算法黑箱,使得程序运转透明可见,但是仍无法排除机器自动决策的影响,人的尊严依然受到挑战。算法只依照既定逻辑和既有资料进行判断,对于人情、算法之外等因素无法纳入考量,也无法处理人面对不利、不理解或认为不合理的结果时产生的情绪。为了减少算法出错带来的影响,应对算法执行结果进行定期人工核查。在用户迫切需要与“真实人类”进行交流时,应当得到迅速、便捷的人工对接。我国的《个人信息保护法》首次规定了算法解释权和免受自动决策权,但是对于人们表达意见和质疑决策的权利还没有具体的说明。因此,“有必要在以后出台的相关法律中增设人工干预权、算法质疑权与表达观点权,进一步丰富数字权利”。
(三)设置算法决策禁区
算法是为人类服务的工具,算法本身不是目的,更不应成为人类的主宰。应当对算法的研究和应用设置禁区,在关乎人类生命、尊严和基本价值的方面不轻易并不仅仅交由算法决策,算法决策不能成为终局决策。尤其在重大刑事司法审判中,不应盲目相信算法调取信息的能力与工具理性。应设置严格的法律框架,最大限度地减少算法错误及其可能造成的严重损害,并制定严密的监督和反馈程序,以便当算法偏见伤及人类生命和尊严时能够作出及时补救。
▌三、赋予算法刑事责任主体地位
关于人工智能算法能否成为法律适用主体,向来多有讨论。反对者认为法律主体制度是以人具有独立的人格为前提的,并将人作为一个不证自明的法律目的,而算法仅是工具,不能成为法律目的;或人工智能的行为不具有可解释性,不能认定其具有自由意志,因此不具备承担刑事责任的资格。
实际上,像ChatGpt这样的生成式人工智能已在自由意志进行了某种程度上的突破,在不断发展后存在具有辨认、控制能力的可能。ChatGPT的语言模型是通过模仿人类神经网络运作模式对结果进行预测,基于机器学习和深度学习,已经能够自行判断、收集和学习新的数据,最终实现脱离既定的算法预设来解决新问题。正由于其可以脱离研发者和既定算法进行决策,在处理机器决策时将其纳入主体进行考虑并无不当。
有人认为对算法进行归责,实际上仍是让算法平台运营者或算法的“拥有者”承担不利后果。但不妨将算法与公司作比,同样对社会具有促进作用,同样由人类建立,有自己的兴衰,关涉一群人的利益。若可以赋予公司法律人格,让股东承担有限责任,为何算法不行?
人工智能算法成为法律责任主体与人是目的并不冲突,我们每个人都无法预料人工智能发展的上限,但是理应怀抱积极的态度,为其成长作出引导,为一个有良好人工智能的和谐社会作好准备,在法律上安排好其位置。
▌四、建立相应的追偿问责制度
追偿问责是完整制度之必要,若无追责,规章制度便形同虚设。对于算法,尤其应当制定连接顺畅、行之有效的机制来保障用户的正当权益,遏制算法的滥用、误用及未经用户同意的强制使用。如若造成损害,追究相关法律责任。
完善算法责任分担机制。吴汉东学者预测,未来,以过错责任为基础建立的“风险分配”责任体系,在某些领域可能不复存在。例如,算法自动驾驶汽车的交通事故认定,就没有主观上的故意和过失,只有结果下的对与错。如果让算法开发者或算法平台,甚至用户承担无过错责任,将会会加大产品生产成本,阻碍算法技术的发展。因此,建议针对汽车制造商设定一份智能系统的强制性保险,以分摊算法安全风险。笔者亦赞成此观点,既然算法的使用极大地促进了整个社会的发展,从总体的角度有利于提高人类福祉,算法的进步就不应停滞;由此带来的风险也理应由社会共同承担,正如机动车交强险。
针对负面清单行为进行处罚。技术发展日新月异且总是超乎预料,向专业化纵深发展,单凭政府力量,对算法技术标准进行司法审查并不容易,划定算法主体行为的边界对于立法者而言更是难上加难。政府权力尤其应当保持克制,引入社会主体共同治理,促使算法设计者、运营者自我规制。政府在法无禁止即可为的前提下列出算法主体技术行为的负面清单,以结果为导向进行规制不无可取。
