每日论文学习:人工智能歧视的法律治理(李成)

文章摘要

文章结构

引言。人工智能的歧视并非技术创新的产物,而是数字时代前沿科技“赋能”前数字时代传统社会矛盾的结果。易言之,人工智能遵循的技术逻辑耦合了发生歧视的社会规律。数字技术成为歧视表达的新载体。就此而言,从根本上预防和治理人工智能的歧视需要解析歧视发生的社会动力机制并厘清其嵌入人工智能的技术路径。更加重要的是,有必要回归到我国场域内,审慎检视我国现有禁止歧视法律体系因应“人工智能+ 歧视”的制度余量,做好人工智能歧视法律治理的规则体系储备。

一、嵌入人工智能的歧视内隐偏见驱动的无意识歧视。出于维持积极的自我认同以及提高自尊的需要,群体总是倾向于将贬义刻板印象赋予外群,将褒义刻板印象赋予内群。 内群在没有足够证据的情况下恶意揣度他人,建立起对外群的偏见。这不仅意味着针对目标群体的消极习得态度,也意味着支持这一态度的消极信念以及回避、控制与支配目标群体内个体的行为意向。个人将认知层面的偏见表达到社会生活场景中,即具象化为法律所禁止的歧视行为。结构性不平等驱动的系统性歧视。从歧视中获利的群体将其占有的资源兑换成政治、经济、文化等领域的优势地位,构建对其有利的社会权力结构。个案中的不平等累积形成结构性不平等。歧视或明或暗地被嵌入政治、经济、教育、公共服务等各个领域,成为组织规范乃至国家层面的制度安排。与制度的结合意味着歧视完成从零散到系统性歧视的质变。一方面,系统性歧视借助制度体系强化歧视的发生密度和执行力度,偶发的歧视行为常态化,碎片化的歧视做法制度化。另一方面,系统性歧视制造“自我实现预言”规训受歧视群体,将处于支配地位群体的偏见植入受歧视群体的自我认知。

二、歧视嵌入人工智能的路径。人工智能的技术发展阶段和发展路径决定了其在歧视面前近乎不设防的虚弱状态。一方面,人工智能仍处在弱人工智能阶段,只能按照人设定的逻辑,判断、决策、执行各个任务环节,并无能力自主识别、拒绝、修正开发者或者其他利益相关方将自身偏见写入其代码。另一方面,就人工智能的技术发展路径而言,处于基础与核心地位的是以深度学习(Deep Learning)等算法为代表的机器学习技术谱系。问题建构维度的歧视、数据理解维度的歧视、特征选择维度的歧视、个人信息维度的歧视

三、禁止歧视法律体系的制度余量基于责任规则的禁止歧视机制。受害人在技术上不能证明是否存在基于特定集体身份的区别对待,锚定法律责任几乎成为不可能完成的任务。基于信息约束的禁止歧视机制。相较于责任规则,阻止施害者获得集体身份信息比威慑其据此作出歧视行为效率更高,遗憾的是,信息约束绝非包治歧视的灵丹妙药,其适用局限性在数字时代愈发明显。基于平权行动的禁止歧视机制。。既然结构性不平等扭曲了市场机制,形成资源配置身份化格局,那么通过逆市场操作,牵引资源回流受歧视群体,即有望改善该群体在政治、经济、社会生活等领域的参与率,推动社会权力结构变迁。悖论在于,首先,所有平权行动的设计和实施皆须以知晓个人集体身份为前提。更现实的挑战在于,平权行动在松动社会权力结构的同时,人工智能却可能反向而行,以更高的效率固化、加剧既有的结构性不平等。

文献支撑

全文引注数量:107

亮点总结

有感而发

人工智能确实是热点,难怪《法律科学》之前被引率如此之高,人工智能法学领域的奠基性文章均发表于《法律科学》。即使是在2021年,也还有大量的人在从事人工智能法学的研究,让我意识到了“风口”很重要,选择大于努力,同样的工作量,选择人工智能领域可能就能发一个很好的刊物,而选传统的研究领域就完全没有发表的可能性。各类讲座都乐于讲“法学研究的论文选题”,不是子虚乌有,而是切中要害,选题好就已经成功了一半。目前在写的论文也是一样,自己论证的一般,全靠研究主题吸人眼球。

李成,2000-2004四川大学法学院法学专业,法学学士,2004-2007,四川大学法学院宪法学与行政法学专业,法学硕士,2008-2011,上海交通大学凯原法学院宪法学与行政法学专业,法学博士。2011年留任四川大学法学院。

文章详情

文章类别:法学理论

发文时间:2021-04-07

被引量:6

下载量:2443

课题:无

声明:本站部分文章内容及图片转载于互联 、内容不代表本站观点,如有内容涉及侵权,请您立即联系本站处理,非常感谢!

(0)
上一篇 2021年11月19日
下一篇 2021年11月19日

相关推荐