
▌一、算法的概念和特点
算法是人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制。从电子眼到智慧司法,从网易云个性歌单到淘宝猜你喜欢,从智能红绿灯到智能客服,算法频繁出现于诸多场景,塑造着人们的生活方式也深刻地改变着社会。

诚然,算法本身只是技术与程序,其运行中立、客观、高效,是大有潜力的工具、新时代的宠儿。然而当它被运用于社会决策,开始影响甚至控制人们的想法或行为,具备资源调配能力时,就从单纯的技术转化为实质意义上的权力——算法权力。算法行使权力,判断着谁的简历会被自动剔除、谁可以优先接种疫苗、谁可能再次犯罪而需要被监管、谁有资格从银行取得贷款,已然与社会正义挂钩,同时作为蓬勃发展的新兴事物,对社会治理提出诸多挑战。
▌二、算法损害人的主体性
现代法律主体制度建立在对人的哲学理解基础上,人类被视为是具有情感、能够理性思考、具有一定情操的。然而,算法冷冷注视着人,将其分解为一个个细碎标签——个子高矮、圆脸方脸,教育背景如何、体力如何,存款多少、收入高低,又依据这些标签将人分类,进行决策。算法仅依循既有的数据便将人排除在某些可能之外,对人的一生加以安排,使人生由旷野变为轨道,忽视人的发展潜力。
人与机器的主客体关系倒转,人被视为可计算、可预测和可控制的“他者”。算法对于人的经验、情感、梦想毫不加以考虑,仅遵循着机械理性,通过单一的推理与计算,碾压着人与生俱来的“自我”尊严。算法出于节约成本、提高效率的考虑,以及从所有数据进行综合概括,要么剔除某些“不相干因素”,而这恰恰是人之个性所在,从而掩盖人之多样性;要么考虑那些“不同”因素而剔除某些“不相同的人”,从而磨灭了人格平等与价值多元。
人类被动由算法进行”喂养“,难以发挥主观能动性获取信息。算法首先通过监听、收集浏览数据、分析储存文件等形式描绘人的行为模式,判断人的兴趣所在,然后以精准的同类推荐使人迅速获取想要的信息,逐渐塑造人的认知结构。同时,算法的推荐具有惯性,除非用户主动搜索,绝不呈现新鲜内容,从而将用户束缚在由兴趣和先入之见所引导的狭隘信息领域。
中老年顶流博主“秀才”被封禁的新闻冲上微博热搜时,许多年青人才发帖反映自己“从未听说过秀才”、“从没刷到过中老年博主的视频”,一方面再次暴露出信息茧房的存在,个人获取多维信息的困难程度加深;另一方面展现了私人订制信息的普遍,使得每个人看到的世界不再是同一个世界,人们之间难以互相理解,社会的共识基础遭到侵蚀。走过书籍、报纸时代,人信息获取的途径与思维扩展的可能性反倒为互联网和算法所局限。
▌三、算法威胁正义
社会中广泛运用的算法往往由财力雄厚的公司投资,由庞大的专业性团队设计、研发和维护。绝大多数普通用户对于关涉自己日常生活的算法没有途径接触;即使算法机制被公开,由于专业知识和时间资源的不足,普通用户也难以理解其机制,更加没有可能亲身参与研发和推广符合自身利益与诉求的算法。算法作为一种决策权力,谁有能力建立与推广算法,谁就有权力制定社会规则。如果只是由超级公司、政府机构或数据科学家按照自身的需求所设计,那么算法顶多是维护并增进一部分人利益的工具,公平和正义也就无从谈起。
从价值取向来说,算法本身应人们对于效率的追求而生,又以实用的结果取得竞争优势。算法的设计者与使用者全神贯注于是否高效达成目的时,理想和道德因为不具效率而被漠视,个人权利与处境因相较群体利益微不足道而被忽略。算法本身在设计和运行过程中为了降低计算难度会去除一些“无关因素”,理想和道德因难以检测、不具有精准单一表达、难以量化而容易被不予考虑。
权利优先性是社会正义观的核心理念,但算法为了能收集更多数据使自己迅速成长或者公司为了更好掌握用户信息进行定向推送而未经允许或许用户数据的例子屡见不鲜。用户上亿的网易云音乐就以其精准符合用户口味的每日歌曲推荐为多年来的服务亮点,但直到最近的版本才大发慈悲给予用户是否允许平台收集信息进行个性化推送的选择。
算法的运用还有可能违背程序正义。正当程序强调参与性和主体间性,注重程序参与者的主体性地位以及主体间的互动性权利,在算法的自动化决策中,直接言辞性和亲历性大打折扣。如电子眼抓拍,本身集执法、司法、敦促守法功能于一体,很大程度上节约法律实施的成本,是对于效率的追求,但是被处罚者没有被当面告知、亦无人对其进行解释,其申辩难度变大。此外,司法公开恰恰是司法正当性的来源之一,算法由于不具备说理,且人们常常只能得到处罚结果本身,容易对其正当性产生怀疑。算法最为人担忧的方面之一便是其黑箱化运转,这使得人们难以对运行中的错误和缺陷进行监督。
最后,如自动驾驶技术等然而经由算法全自动化决策产生的侵害性结果,存在责任主体难以确定、主观过错难以证明等问题,同样在阻碍着对公正性的追求。
▌四、最常见的不正义——算法歧视
算法不正义有诸多表现形式,实践中,算法歧视可谓屡见不鲜,也最为人所恐惧——它是切实可感知的,对单个人的利益造成直接影响。丽莎·贝尔金在LinkedIn上的职业经历和技能与男性同事相似,但搜索与自己职业经历相关的职位时,却发现被推荐的职位大多数都只招聘男性。埃里克·巴克写的一篇关于如何在职业上取得成功的文章却被Facebook的算法标记为“与政治、种族、宗教或社会议题有关的内容”,并且被减少分享范围,导致该文章在Facebook上的曝光量减少了大约95%。
正如尤瓦尔·赫拉利在《今日简史》中所说:“现在算法歧视的有可能就是你这个人,而你完全不知道原因。有可能是你的DNA、你的过去或者脸谱网账号上有些什么,引起了算法的注意。算法歧视你,并非因为你是个女性或者黑人,而是因为你就是你。就是有些什么关于你的特质,算法不喜欢。”算法歧视如何不令人恐惧,遭受了不公平的对待,却不知道原因,亦无从申诉!
造成算法歧视的原因有多种。尽管算法在运行过程中是理性的、中立的,然而作为人创造和使用的工具,算法生来便具有偏见。算法在实际被投入应用前,要经过问题定义与机器学习和训练两个阶段。问题定义即把明确了的任务转化成具体变量,而机器学习和训练阶段大致可以简化为三个环节:输入环节→学习环节→输出环节,而在每个环节均存在着偏见。
“Bias in,Bias out”,算法只能依据被输入的信息进行分析判断,输出数据的质量取决于输入数据的质量。在汽车安全气囊的设计过程中,研发人员仅输入了成年男性的身体数据,我们如何相信算法建议的安全结果也适用于女性或未成年人呢?算法是人的产物,必然无法超脱设计者本身认识与经验的局限,同时会继承设计者的偏见。微软公司专门为年轻人推出的智能陪聊机器人Tay是一款自我成长型人工智能算法,会在与用户的交互过程中向用户进行学习,然而在经过不到 24 小时与年轻人的聊天学习后,变得脏话连篇,言论带有种族歧视,被迫下架。
我们深知社会无处不存在偏见,重男轻女、漠视不健全人士、认为农村等同于落后等等等等,仅仅吸收偏见言辞而不具备道德和价值判断的算法很容易进入陷入歧视。尽管输入的是社会的“现实”,算法反应的是实然,但是作为先进生产力的代表,算法应当反映社会所需价值观,要为了“应然”而存在,如此方能展现工具之善,助力于实现人的福祉与美好生活。
