“算法要向善”选择背后的伦理博弈
2020-12-14 16:24:07 | 来源:光明日报 | 作者:方师师
 

  即将过去的2020年似乎经历了一个“加速社会”的中场休息,但种种迹象表明,这并没有暂缓数字智能服务成为人们日常生活的一种方式。健康码、点外卖、视频会议成为工作生活“三件套”,各种基于数字化、信息化和智能化的服务应用快速入场,社会在技术与资本的双重博弈下正经历结构转型。

  这种转型呈现出一种“重组”的力量,将现有的时间空间重新切割,再以一种“光电方式”重新拟定节奏、划定规则、做出决策。线性时间被打碎,信息的“精准推荐”是一种“算法时间”,它调整信息的呈现序列,插入合适的节点,指出什么才是“适合你的内容”,而不在意“真正的时间”。以算法为核心生产逻辑的数字平台,作为社会行动网络中的主导力量,正在整合性地协调社会系统中的多元参与,通过设置代码规则,进行算法管理,规训的颗粒度被逐层细化,渗透进社会的毛细血管。算法社会的结构转型正呈现出3个鲜明的趋势。

  一种新的“平台速度”正在形成。麦克·沃尔什在《算法领导者:当机器比你聪明时如何变聪明》一书中描述了一种“亚马逊步速”,这是一种“介于行走和慢跑之间的速度”,而在亚马逊,员工们必须按照这个节奏来工作。与之类似,我们看到了“困在算法里”的外卖平台骑手们,面对不断压缩的订单送达时间,他们没有选择,只能遵循算法的设计逻辑,看着手机上一条直线的数字地图,在现实的道路上“与死神赛跑,和交警较劲,和红灯做朋友”。平台速度是一种时间节奏,集中体现着平台规则和算法支配下的统一性、规划性和标准性,而且蕴含着一种肤浅的消费哲学,代价就是将劳动者的主体性、情感性和立体感隐藏起来,这也助推了平台算法所带来的社会不平等。

  “人脸识别”或将重新划定个体身份边界。疫情期间,人脸识别作为社会监测技术助力公共防疫,但是强制“刷脸”、事后“丢脸”的问题也暴露出来。在一些小区,人脸识别成为居民出入的唯一验证方式,而一转眼,在一些黑灰产平台上,据说两块钱就可以买到千张人脸照片。人脸识别是一种“无目光的注视”,人脸识别的准确性高度依赖数据、算法和算力,如果操作不当,泄露出去的面部照片可被用来训练深度伪造,欺骗识别系统,冒充个人身份,恶搞他人隐私,持续给个体带来经济风险和身份困扰,造成社会秩序混乱。

  “算法鸿沟”逐渐成形并拉大社会距离。算法的逻辑机械且强势,而如果社会的协调机制过分滞后,那么则会形成新的“算法鸿沟”与社会歧视。以往的知识鸿沟、数字鸿沟更多的是由于社会结构中的教育程度、年龄层次、经济地位等要素使得社会资源分配不均,而“算法鸿沟”则有可能在分配制度的上游,通过人口数据、用户画像、使用习惯、社交关系等先期就预置了鸿沟。而随着算法回还往返于社会与系统之间,那些有机会获得工作经验、拥有学习机会、算法素养较高的群体,同那些缺少机会、相对弱势的群体之间的差距将不断拉大。老龄人口、残障人士、低收入群体可能会陷入新一轮的“算法陷阱”,行踪羞辱、健康码歧视等问题则随时可能落到每一个普通人身上。而这样的差距经年累月沉积,将加重阶层固化,形成算法特权和垄断力量。

  去年4月,《自然》杂志上刊登了一篇研究性的综述,指出未来将是一个“算法无所不在”社会:自动化的新闻推荐、算法辅助法官判案、无人驾驶汽车、针对个体的差别化定价等,都将无缝接入我们的生活。如果以现在的发展态势来看,这个“未来”已来。

  如同“药”具有两面性,算法在摧枯拉朽急速推进社会进步的同时,也暴露很多问题。这些问题不仅是一个技术问题,更是一个系统问题和社会问题。算法社会结构转型的特殊性在于,这是一种行动的“再现”:算法没有善恶,但绝非中立。算法要向善,因为所有围绕算法进行的协作都是社会再现,而未来的方向在每一个积极的主体手中。

  我们已经看到了这样的努力。就在前几日,中共中央印发《法治社会建设实施纲要(2020—2025年)》,其中明确提出要制定完善对算法推荐、深度伪造等新技术应用的规范管理办法。10月,杭州市人民代表大会常务委员会发布的《杭州市物业管理条例(修订草案)》有望成为国内首部明确写入人脸识别禁止性条款的地方性法规;11月23日,国内“人脸识别第一案”宣判,未经当事人同意的“强制刷脸”被驳回。关注平台外卖员的生存状态和阶层流动机制,为老年人、特定身份群体打造友好的数字生活环境,对平台滥用市场支配地位、进行差别性对待等不合规问题进行监管治理等,都是对算法社会中可能会出现的结构性问题的“纠偏”。

  我们在见证算法改变社会结构的同时,也要看到这种“公共关涉”算法是一种社会机制,涉及多种社会要素和力量。要使得这种社会机制能够朝向更加具有社会保障、社会共情、公共向善的方向推进,则需要建立更为完善的监督、协商与支撑体系。

 
责任编辑:魏悦
网友评论:
0条评论