算法的功能性和社会性
来源: 刘忆宁/
桂林电子科技大学计算机与信息安全学院
1247
4
0
2022-08-04

算法的功能性和社会性

作者:刘忆宁 何相谊

算法无处不在 

算法是用以解决问题或达成特定目标的程序,是配方、规则、流程、方法的代名词。算法无处不在,并有着源远流长的历史。我国最早的算法可以追溯到伏羲氏创造的用以阐明宇宙万物化生规律的“太极八卦”。“八卦”与近代的二进制具有共通之处,“――”叫做“阴爻”,相当于二进制里的0,“—”叫做“阳爻”,相当于二进制里的1,“太极生两仪,两仪生四象,四象生八卦”,刚好对应了二进制的计算方法。古代历史文献里记载的排兵布阵也是一种算法,我们熟知的“八卦阵”就是由“太极八卦”衍生而出。

到了现代社会,算法更是无处不在。在互联网的飞速发展下,依托算法,数据的输入、明确的决策指向都可以瞬时自动完成,大大降低了人力、物力和时间成本。对社会而言,天气预报、航线调度、卫星导航等应用广泛的系统需要精密的计算;对个人而言,算法与人们的衣食住行密切相关,浏览网页的喜好,利用虚拟现实和AI算法在网上挑选合适的衣服,智能设备监测饮食习惯存在的健康隐患,智能家居与VR家居装修,车联网系统适配出行习惯等,算法正在以前所未有的速度渗透到人们的生活中,甚至可以说算法比每个人自己都更了解自己。

 

算法的功能属性与社会属性

以往的算法研究更多地注重算法的功能性。在外卖行业,平台运用算法来提高配送效率;在传媒行业,运营者运用算法精准推送,满足用户了解兴趣内容的需要;在电商行业,购物平台利用算法了解客户的消费喜好并个性化推荐,提高了用户浏览效率……对互联网企业来说,算法的便捷、高效与精准推送是提供给用户功能性的目标。比如,我们日常使用网约车服务时,用户提交打车订单,希望能有最近的车、信誉最高的司机接单。准点、可靠、安全有保障便是算法的功能性目标。

算法除了功能性目标之外,还有其他看不见的目标需要保证。网约车算法为了能够精确地、准时地、快速地提供出行服务,需要收集司机和乘客大量信息,乘客每天去过哪里,自己不一定记得,但网约车订单记录得清清楚楚明明白白。而平台运用算法加工轨迹信息后,能对乘客的出行习惯了如指掌。若将其与地理数据进行结合分析,甚至可以推断出敏感的私人身份信息。国内李萌教授最早关注网约车位置隐私的问题,隐私是算法除功能性目标外又一个重要的衡量指标。

一方面,算法的过度使用使用户的隐私遭到侵犯,导致用户行为画像推送、大数据杀熟和诱导性消费等诸多社会问题的产生;另一方面,以往人们只关注平台对算法功能方面的需求,忽视了算法功能实现对社会产生的影响。前几年一篇关于外卖骑手被算法系统所困超时工作的文章引起网络热议,也由此让人们开始关注算法的社会属性。 诚然,算法为外卖平台提高配送效率是社会的进步,但从中我们也应该思考——算法究竟为谁服务?

 

算法服务的核心

好的算法不应该是以平台为中心,而应该是以社会为中心。算法服务最为核心的内容:一是算法站在什么立场,是以服务资本和企业为中心,还是以公众利益为中心?二是算法产生的数据由谁支配,是企业和资本,还是政府监管机构?

随着大数据、人工智能和区块链等技术的迅速发展,人类社会正在步入以算法为中心的智能社会法律秩序,算法也日益成为利益分配的技术机制。一个算法结构是否以服务公众利益为前提,需要通过以政府为中心的监管角度来实现对核心环节的支配。因此,我们需要正视“困在系统里”这一事实,把系统装进笼子里。

政府获取的政务数据与时俱进,作为社会公众(消费者)的代理人,政府在全面收集数据、规范各个领域的数据、归纳和再利用数据上具有巨大的优势。这些数据本身不仅可以为政府所利用,转变为庞大的公共数据资源,还可以应用于政府的规制决策,从而更精准地保障和增进公共利益。在规制上,政府目前除了给予市场主体必要的自主空间实现技术创新,还需要提高技术监管的学习能力,运用与信息时代相匹配的算法规制工具参与市场主体的利益博弈,在政务云和边缘节点构建独立于第三方的具备公允性、安全性的网络,从而实现政府对核心环节的监管和支配。

 

算法监管的困境与风险评估的标准

    对于目前算法在监管上的困境,现成的解决方案大多是以对算法外部评估的方式监管。例如:面对人工智能等新兴技术在伦理上的挑战,谷歌、微软等科技公司纷纷设立了人工智能伦理审查委员会。微软还推出了六项人工智能伦理道德准则,包括公平、可靠和安全、隐私和保障、包容、透明、责任。我们认为还需要从算法本身来评估是否符合公众利益,建立基于评估算法本身的监管机制。

首先,平台设计、开发和运行的算法系统,也可能关系到公民财产、人身等多项权利,以及社会公共利益。例如,政府为网约车行驶提供基础设施和道路安全保障等条件,车辆匹配算法直接关系到一个城市的交通运输资源调度,因此,基于算法社会属性的评估通常超越了对隐私或个人数据保护的考虑,而转向更广泛的社会考虑。

其次,算法评估制度不仅因传统的政策或技术影响评估,更可能因算法嵌入的政府、公共部门及数字平台所涉利益的广泛性,具有了比数据保护影响评估更广泛的影响和更深入的价值。

最后,现有的算法应用极为广泛,算法系统具有多样性、复杂性和动态性,对所有的算法进行监管既无必要也不现实。因此,将算法风险分级作为评估标准尤其重要。比如欧盟各国制度中有多重划分的标准可以借鉴,欧盟和美国均以对算法处理对象的敏感程度确定算法的风险程度。

目前我国的法律界对算法的社会风险已有重视,但在社会风险的评估标准制定上仍有不足。2021年11月实施的《中华人民共和国个人信息保护法》规定了算法风险制度评估的主要内容是对个人权益的影响及可能带来的风险,并未明确指出计算机程序自动化决策对个人信息影响需要进行评估的范畴、评估结果信息披露的对象和公布的范围等。此外,该保护法涉及的评估标准主要集中于隐私与个人信息保护事项,而算法由于深度嵌入行政活动与社会经济运行,评估标准往往更加复杂。

由于较为先进的算法技术是在近几年才开始实现商业应用,因此学界、业界对部分行为是否需要监管、应该如何监管存在一定争议,相关法律法规尚未完善,也缺乏相应监管依据。

 

算法社会属性的评估方案

我们提出的算法社会属性评估标准包含以下几个方面:

首先,需要明确算法的社会风险等级,对于不同风险等级的算法,评估的主体、评估的结果,以及行政机关的监管处罚跟进措施应有所区别,不同级别评估制度对应不同风险等级算法问责需求。我们认为判定满足社会属性的要素取决于受到法律保护的权益的重要性。

以国内网约车行业为例。该行业经历了近几年的蓬勃发展,服务商积淀了大量用户数据,在算法的垄断上也给社会带来了一些问题。

(1) 网约车平台事实上掌握了中国城市的个人出行信息及街景数据,而数据经过算法处理与分析,有泄漏国家机密的风险。

(2) 网约车算法受平台操控,算法通过大数据分析可精准抓取用户打车习惯与消费水平画像,导致在同路段距离下,针对不同的人群会产生不同的计费价格。平台借此随意调价以获取高利润抽成,司机也因此无法获得合理收益。因计费规则与匹配规则的不透明还可能使市场的公平性和公允性受到破坏。

(3) 存在个人隐私被泄露的隐患。网约车算法提供出行服务,需要收集司机和乘客的数据信息,包括司机的状态、位置、服务时间,乘客的位置、出行时间等。这些隐私经过算法的分析推断后,服务商能够将用户的敏感信息精确掌握。如果用户隐私被非法利用,用户很难凭借自身行为维护其数据权益。

(4) 网约车算法中的评分机制与奖励机制对司机进行无形的控制。其数据指标的评分机制相仿于外卖算法之于外卖骑手,使司机为了提高收入而多跑单,达到平台获取高利润的目的,这无形中会对劳动者权益造成侵害。

(5) 网约车算法对隐私的越界,使用户画像行为推送、大数据杀熟、诱导性消费等社会问题长期存在。而这些问题也同样存在于其他领域的算法应用中,比如用户在某个平台注册时,平台会让用户选择自己感兴趣的内容和栏目,以后会着力推送这方面的内容。平台对内容打标签,使其能精准匹配到相应的用户等。

其次,需要确定不同评估结果对应的不同监管体系。较低社会属性风险的算法评估结果,导向宽松监管与过错责任的追责原则;而具有较高社会风险的算法评估结果,对应着严格的全流程监管与客观责任原则。我们参考德国伦理委员会对五个不同风险等级算法系统的监管级别,给出以下建议:

一是对于低风险的第一、第二级算法系统,以事后问责作为主要机制。

二是对于第三级及以上的高风险系统,应考虑以发放许可证的方式,使之审批、监管常规化,并需要定期审查。例如,导航算法提供商可以访问使用车辆和移动数据生成的数据池。如果这些数据仅用于预测交通拥堵,那么可以归类为第一个级别。但如果使用算法来匹配用户和车辆,可能影响消费者权益,则应归类为第二等级。如果使用智能算法来控制流量,比如基于由使用车辆实时确定的道路、铁路、水路和航空运输等组成的移动系统的总体使用情况,则可能归类为第三等级。

三是对于更高等级的、具有相当潜在风险的系统,如在信用评估方面具有准垄断地位的公司,应公布其算法细节,包括计算所参考的因素及其权重,算法所使用的数据,以及对算法模型的内在逻辑进行解释。只有了解算法的设计情况,才能确定哪些数据被用于算法的输入,在无法直接接触公司的数据或算法时,则可通过收集或模拟一组特定的数据输入算法系统,然后对输出结果进行分析。

网约车行业里处于垄断地位的企业,其算法涉及的个人数据乃至行业资源,若被出于服务资本的目的滥用,将导致相当程度的风险。具有这类算法特征的企业应向社会层面公开算法细节,提升算法系统的透明度,使权利个体和监管部门充分理解算法决策过程,并对其实施有效的监督。

 

 


登录用户可以查看和发表评论, 请前往  登录 或  注册
SCHOLAT.com 学者网
免责声明 | 关于我们 | 联系我们
联系我们: