智能技术之患:机器与人的战争,还是人与人的战争?

智能技术之患:机器与人的战争,还是人与人的战争?

土逗君土逗君
智能技术对人的影响是有区别的,同一个技术可能让一部分人受益、同时让另一部分人受损。

.

作者:熊节

编辑:屐松松

美编:黄山

.

人工智能的风险讨论已经不再是新话题。在过去几年中,很多研究者提及了人工智能(以及与之紧密相关的技术,尤其是机器学习和大数据技术)可能带来的危害与风险。值得注意的现象是:在公众话语空间中,所流行的关于智能技术伦理危害与风险的讨论,大多将“人类”整体视为潜在的被害对象,大量的叙事被构建为“机器VS人类”的形式。

关于智能技术如何被当前的社会权力结构所主导,并反过来强化该结构,从而加深对弱势边缘群体的压迫,相关的讨论数量较少,且缺乏系统性。本文将展开关于智能技术伦理危害与风险的介绍,并着重讨论其如何强化社会与经济的不公正。



想象未来世界:全人类被毁灭的讨论


有关智能技术伦理危害与风险,部分讨论已进入流行文化空间,引起了大众的兴趣。通常,其以未来学的形式示人:试图推测人工智能技术成熟、尤其具备了自我完善的能力之后的未来图景。如超级智能、人工智能毁灭人类[1]、技术奇点[2]等讨论,引发了大众对其中伦理问题的广泛关注。

.

相关的讨论占据畅销行列,大众对人工智能的伦理问题也开始关注。图片来源:网络

.

比起事关人类存亡、略带科幻感的宏大叙事,另一些相关的伦理危害与风险,正在更加现实中发生。例如智能技术对就业的影响,是一个经常被提及的主题。Kevin Kelly认为[3],机器在工作中对人的取代是一个不可逆的过程,有一些工作暂时只有人类能做或做得比机器更好,但机器终将胜过人类,绝大多数人类在几十年后,将不再需要从事生产工作。麦肯锡的一个研究[4],具体地列出了各种职业被机器取代的可能性,其中生产线工作、准备食物、包装物品等“可预测的物理工作”是最容易被机器取代的。

.

麦肯锡的报告更近一步,分析了哪些职业将被替代。图片来源:麦肯锡

.

除了造成大面积结构性失业外,人们还担忧[5],赛博空间和物理空间的战争:控制了大量资源甚至自动化武器的人工智能,是否会攻击它们本不应该攻击的对象?这种危险甚至不必以战争的形式出现:考虑到它们已经在社会经济中扮演如此重要的角色,其错误行为(甚至只是不恰当的优化)是否会造成极端恶劣的结果?可以注意到,以上几类常见的讨论,总体上强调人工智能对人类整体的影响,并不凸显其对当前社会不同人群所造成的不同影响。

同样的趋势,也出现在对智能技术风险的分析中。众多此类分析聚焦于技术层面,而并未将社会和政治因素纳入考虑。例如斯坦福大学的研究者认为,通过机器学习尤其是深度学习得到的统计学模型,具有以下特征及安全隐患:

• 不透明:很难、甚至根本无法看懂其中的逻辑;

• 整体不可分:无法通过局部分拆理解输入输出之间的关系;

• 脆弱:输入的微小变化可能引起输出的重大且无法预测的变化;

• 不被充分理解。

作为对比,Weapons of Math Destruction一书作者Cathy O’Neil也提到了众多智能算法工具的危险的特征[6],其广泛影响着人们的日常工作与生活:

• 它们是秘密的,经常是某家公司的商业秘密;

• 它们是不透明的,被它们影响的人群不了解这些算法如何运行;

• 它们应用的范围很广;

• 它们对“成功”的定义值得置疑,被它们影响的人们未必赞同;

• 它们制造了有害的反馈环。



未来世界也在折叠?


相比前一组特征,O’Neil识别的特征具有一个值得注意的要点:特定的人群。她指出了一个极其重要、但绝非总是明显的问题:智能技术对人的影响是有区别的,同一个技术可能让一部分人受益、同时让另一部分人受损。2010年在伊利诺伊州开始实施的教师绩效评估算法,引发了芝加哥教师的广泛反对乃至游行抗议[7],这就是一个实例。

.

芝加哥教师反对教师绩效评估的算法,图片来源:网络

.

正如Linnet Taylor不无洞见地指出[8],在进行伦理评估时,人们倾向于抽象地谈论智能技术可能造成的伤害,而具体地谈论它带来的收益,于是实在的收益总能压倒模糊未知的伤害,从而使项目通过评估。通过将社会和政治因素纳入讨论范围,O’Neil所提出的对具体人群的关注,给了我们一个重要的视角,来重新审视智能技术可能带来的损害和风险。

自此,我们首先可以注意到,智能技术对劳动力市场的影响并非均质。Erik Brynjolfsson和Andrew McAfee在《与机器赛跑》中指出,教育程度较低、薪酬较低的劳动者更易被智能技术取代,同时他们也更难以获得新的职业技能,因而这群劳动者在结构性失业中受到的损害被加重;Paul Krugman一针见血地指出[9],全能且高效的工作机器人(workbot)的出现,未必会让世界变得美好,因为没有能力拥有机器人的那些人,处境将非常悲惨。尽管这方面的研究还很少,但现有的一些研究显示:在高度自动化、智能化的工作环境下,教育和技能水平较低的劳动者,正在面临劳动环境恶化、劳动强度增大、收入降低、缺乏劳动和社会保障等挑战,此种现象在“分享经济”形态中普遍可见[10]。在一些极端的情况下,劳动者被异化成“数字机器上的幽灵”[11]和“生产线上的奴隶”。

.

作者邱林川讨论了新形势下的奴隶—i奴,图片来源:网络

.

另外,智能技术可能正在加深对社会弱势群体的偏见和歧视。Wendy Chun认为“机器学习就像偏见的洗钱”[12],通过机器学习,偏见和歧视被包装成模型和算法,使不公正变得更加隐秘而影响深远:职场社交网站LinkedIn的搜索引擎更青睐男性求职者[13],Google的广告平台Adsense存在种族偏见[14],饱受争议的“预测性执法”(predictive policing)对非裔美国人和穆斯林形成结构性歧视[15],低收入人群会因为智能技术更难从贫困中逃脱[16]。性别、种族、宗教信仰、收入……现实中的各种偏见与歧视,似乎都在智能技术中找到了落脚点。

除此以外,智能技术还被被用于控制大众情绪。通过操控用户从新闻订阅渠道看到的信息[17],Facebook成功地调节了用户发帖的情绪,从而证明情绪可以在大量在线用户之间传染。一份曝光的材料[18]显示,JTRIG(联合威胁研究智能小组,隶属于英国情报和国家安全机关政府通信总部)已经在通过Youtube、Facebook、Twitter、博客、论坛、电子邮件、短信、自建网站等渠道操纵大众情绪,从而消除“犯罪、安全和国防威胁”。在政治领域,智能技术可以诱导选民做出片面的判断(Cathy O’Neil在2015年的发言);而在商业领域,其向消费者灌输消费理念,使他们成为对不断更新换代的消费品上瘾的“被制造的奴隶”(manufactured slave)。

.

JTRIG(Joint Threat Research Intelligence Group)是GCHQ(Government Communications Headquarters政府通讯总部)的一部分,图片来源:网络

.

早在1980年代中期,研究者们就围绕“计算机伦理是否具有独特性”这一问题展开讨论。Johnson认为[19],计算机伦理只是把标准的道德问题以新形式呈现,逼迫我们在新的领域中延续旧的道德规范,它本身不是一个独特的新题目。而James Moor则认为[20],计算机会大幅度转化/强化现有的伦理问题,并且造成过去未曾出现过的新伦理问题,因此计算机伦理本身就是一个独特的新题目。

这两种观点,对于我们全面认识智能技术的伦理问题,有着重要的启发意义。我们既需要充分了解智能技术的独特性,及其对伦理问题带来的独特影响,又必须认清新技术背后潜藏的旧有冲突、斗争和伦理准则,这样才能准确把握智能技术的伦理方向,使其向着对广大民众有益的方向发展。

.

熊节,ThoughtWorks总监咨询师

.

注:

[1] 相关的讨论可见:Benefits & Risks of Artificial Intelligence - Future of Life Institute,作者讨论了人工智能的优点及其风险。

[2] 技术奇点(Technological Singularity)出自奇点理论,一个根据技术发展史总结出的观点,认为未来将要发生一件不可避免的事件──技术发展将会在很短的时间内发生极大而接近于无限的进步。作者推荐阅读https://www.washingtonpost.com/opinions/matt-miller-artificial-intelligence-our-final-invention/2013/12/18/26ed6be8-67e6-11e3-8b5b-a77187b716a3_story.html?utm_term=.18a112f073bb

[3] Kevin Kelly讨论了为什么我们的工作将会而且一定会被机器人取代,详见:Better Than Human: Why Robots Will — And Must — Take Our Jobs

[4] 麦肯锡季刊发表了关于哪些工作会被取代,哪些工作还不能被取代的研究。详见:http://www.mckinsey.com/business-functions/digital-mckinsey/our-insights/where-machines-could-replace-humans-and-where-they-cant-yet

[5] 作者讨论了确保人工智能系统安全性的长期及短期的挑战,详见:https://jsteinhardt.wordpress.com/2015/06/24/long-term-and-short-term-challenges-to-ensuring-the-safety-of-ai-systems/

[6] Cathy O'Neil发表演讲讨论大数据如何威胁民主,视频连接:boingboing.net/2016/01/

[7] 有关芝加哥教师罢工的详情可见:The strike over student ‘growth:’ Chicago teachers’ protest reflects a national feud

[8] 具体讨论见:Why data’s not a public good

[9] Paul Krugman的文章发表于纽约时报,题为《增长结束了吗》,见链接:krugman.blogs.nytimes.com

[10] 作者推荐参考阅读《警惕分享经济的暗面》,见链接:警惕分享经济的暗面 | 透明思考

[11] 参考阅读:thenation.com/article/h

[12] 参考阅读第一届网络社会年会主题报告《全喜卿:以同质性治理——作为区隔的网络科学》:第一届网络社会年会主题报告 | 全喜卿:以同质性治理——作为区隔的网络科学

[13] 参考阅读:How LinkedIn’s search engine may reflect a gender bias

[14] 参考阅读:Racism is Poisoning Online Ad Delivery, Says Harvard Professor

[15] 参考阅读:Coalition: Predictive Policing ‘Supercharges Discrimination’ in Minority Communities

[16] 参考阅读:How Big Data Traps People in Poverty

[17] 参考阅读:Perspectives on Big Data, Ethics, and Society

[18] 参考阅读:Controversial GCHQ Unit Engaged in Domestic Law Enforcement, Online Propaganda, Psychology Research

[19] 观点详见:journals.sagepub.com/do

[20] 观点详见:faculty.usfsp.edu/gkear,可下载阅读。

.

本文由作者授权土逗公社转载

文章被以下专栏收录
还没有评论
推荐阅读