欢迎访问中国治理网!微信公众号:治理中国

何哲:人工智能技术的社会风险与治理

时间:2020-11-10 21:39:08 作者:admin来源:中国治理网


隐私权是传统社会重要的自由权利,其保护了个体行为的自由范围和尊重了个体的自然与选择偏好差异。因此,在很大程度上,隐私是传统社会自由的重要基石[[10]]。

   在东西方的历史中,都很早确立了对隐私权的保护,例如中国自古以来就确立了不能随意进入他人私宅窥探的制度。而儒家则从宗族保护的角度,亦有亲亲相隐的社会管理观念。而法家则同样有家庭内部某些私事不予干预的制度,如《睡虎地秦墓竹简.法律答问》:“子告父母,臣妾告主,非公室告,勿听”。就西方而言,从古罗马开始,就尊重私人领域和公共领域的平衡。而圣经的开篇即讲到亚当与夏娃由于吃了金苹果而产生了羞耻心,要遮蔽身体的暴露。在西方传统文化中,对个人的收入、女性的年龄的打探,都是极为不礼貌的行为。直到19世纪末,英美则正是通过立法形成了对隐私权的明确保护[[11]]。至今,隐私权已经成为现代社会个人权利的基石。

   从有了现代通讯制度开始,自上世纪70年代开始,美国就开始明确立法保护电子通讯中的隐私权。尽管如此,经历了互联网、大数据的长期演化,隐私保护在今天依然是一个值得被关注的重要问题。

   之所以如此,是因为隐私的泄露成为了今天大数据时代的一种几乎必然的结果。由于大数据时代越来越多的无所不在的监控与感知系统的存在,以及以更好服务为名的对用户信息的收集成为一种普遍的商业存在。使得今天的任何一个用户,在整个网络上,都留下了基于其行为的庞大数字轨迹。

   人工智能技术的出现,更加剧了这种状况和危险。人工智能时代隐私问题与大数据时代的根本不同在于,大数据时代只是做到了对数据的充分采集、存储。然而,大数据时代,对个体隐私的最终分析和判定,依然是需要人工来进行了。也就是说,尽管各种传感器和云存储可以精准地去储存一个个体的各种信息,但是,对信息的提取和复杂的综合判定需要人来进行。这就意味着,社会对于个体的精准监控的成本很大,只能做到针对少数个体。然而,人工智能极大降低了分析大数据的成本和提高了效率。通过人工智能,就可以做到对所有个体数据的关联分析和逻辑推理。例如,在大数据时代,尽管城市的各种摄像头精准的记录了所有的数字影像信息,但是其不能将影像对应到自然人。然而,通过人工智能的特征分析,就可以将所有个体识别出来。然后通过将所有摄像头影像的分析,就可以准确记录每一个自然人的轨迹和行动。因此,在人工智能时代,理论上所有个体的绝大多数行为都无法隐藏,无论其是否危害社会。这就产生了一个问题,隐私权在今天或者未来的时代,还是否是个体自由的基础?显然,这一答案是肯定的,那么我们就要去考虑限制人工智能在采集和分析隐私方面的滥用。

   (二)劳动竞争

   机器对于人的替代和与人争夺劳动岗位的问题,从工业革命以后就开始了。十八世纪的工人就开始有组织的捣毁机器[[12]],然而并没有阻碍机器的运用,同时也并没有减少工作的岗位。反而创造出了大量的管理岗位和白领阶层。因此,有一种观点认为,人工智能作为一种机器,其最终也会创造大量的新的岗位而不只是对现有工作机会的替代。

   这种观点,由于建立在历史经验的基础上,很有一定说服力,并且由于其作为一种有利于人工智能大规模运用在生产领域的理论支撑,所以也得到了企业家们的欢迎。然而,仔细分析这种观点,发现其理论和前提存在严重问题,即:这种观点的前提是把未来的人工智能等同于以往人类经济中出现的机器。

   然而,正如同我们反复强调的,今天对于人工智能的分析,绝不能建立在历史经验的盲目乐观之上。因为人工智能从根本上不只是一种替代体力劳动的机器,而是一种足以替代人类脑力劳动的智慧载体。如果我们把所有的经济活动进行分解,可以看出,所谓经济活动,就是这样的一个等式:原材料+能源+知识(技术、工艺、方法)+智慧+劳动=产品+服务。在这个过程中,既可以用计划命令的方式来使得这个过程运作,也可以用资本的方式激励这个过程运作。

  

   如果分析其中的每一个环节,可以发现,工业革命以后,主要是在原材料的获取,能源的开采和体力劳动方面大规模使用了机械和电气设备,从而极大提高了整个社会生产力。在知识和智慧方面,则形成了庞大的专业知识分工体系(科技人员)和庞大的管理岗位(白领阶层),这一部分始终无法被机器所替代。然而,人工智能的关键能力就在于在核心的知识探索和管理体系中逐步具有了对人类的替代能力。今天的科学家已经逐渐应用人工智能进行科学发现,医生利用人工智能诊断疾病,大量的包括人脸识别、轨迹识别、会议记录等已经应用在广泛的管理过程。由于人工智能飞速的学习能力和构造与逻辑上的拟人化,人工智能并没有存在什么天然的阻碍其融入和替代绝大多数人类岗位的自然沟壑。所以,人类大规模的退出生产性劳动,将是一种历史必然[[13]]。一个自然的问题就显现出来,由于人类至今的产品分配体系是以劳动作为核心体系,那么,当人类大规模出现失业问题而同时物质产品生产却没有匮乏,如何更公平的分配物质产品,将是大规模劳动替代后所面临的严重问题,如果解决不好,严重的两极分化、社会不公和社会动荡必将出现。此外,劳动竞争的潜在后果还包括人类整体上逐渐失去生产的知识和能力,这对于人类种群的长期发展,也是极为危险的。

   (三)主体多元

   人工智能的进一步发展,除了在生产领域的广泛应用外,势必会进一步进入到人类生活的各个角落。这就意味着从现在开始,人类将不得不开始适应人工智能在社会中的广泛存在,甚至作为一种社会主体和人类共生。

   人工智能作为主体的社会化过程显然是分为三个阶段。在第一阶段,人工智能只是作为智能网络系统中的核心智慧模块(程序+算力+外设)存在,通过广泛的互联网接入到其涉及的各项工作和任务中去。这时候人工智能更像是具有高级识别与判断能力的机器助手。在第二阶段,人们显然不满足人工智能生硬的外表和僵化的人机界面,为了使得人类更便于沟通和接受,人类赋予了人工智能虚拟的人类外表和人类的称呼,从而使得其在各种显示设备或者虚拟现实设备中能够以拟人的形态出现[[14]]。在这一阶段前,人工依然被屏幕或者非人类的人机界面所阻隔。在第三阶段,人工智能将与各种仿生学技术相结合,以人类的形态出现,进入到人类社会中。这时候,人工智能显然可以从事人类所从事的绝大多数社会行为。

   从当前的阶段来看,人类正从第二阶段的中后期向第三阶段飞速接近的时期。而从技术的发展趋势来看,似乎没有什么因素能阻碍人工智能以人类的形态出现。从人工智能技术的开发历史来看,无论世界的东西方历史都对人形机器的产生保有强烈的期待,从《列子汤问》中记载的人偶和达芬奇在十六世纪设计的机器人,都显示了人类对这一创造的好奇和期待。然而,这并不意味着人类真正对主体的多元化问题做好了准备。240年前瑞士钟表匠雅奎特·德罗兹在欧洲宫廷展示其设计的可以写字弹琴的人形机器人时,曾引起了极大的恐慌,被斥为巫术。今天的人类,是不是也会如此,将是一个问题。

   拟人态机器人显然能够给人类提供更大可能的方便,无论从生产还是生活,可能是更好的朋友、伙伴、提供更好的家政服务,甚至是良好的生活伴侣和家庭成员。然而,显然这也将极大挑战人类社会长期存在的生物学基础和伦理体系。机器人的权利和义务,以及管制机器人的体系,都将是重大的社会问题和制度挑战。

  

   (四)边界模糊

   人类自形成以来的传统社会是一个典型的具有明显内部边界的社会。传统社会是建立在地域、族群、血缘、知识、能力基础上的分工体系。工业革命尽管建立了更大范围内的生产和交换体系,然而并没有削弱这种内部边界的分工,反而强化了这种分工,从而最大化了各个领域的效率和能力[[15]]。然而,自人类进入到网络时代以来。这种内部鲜明分工的社会格局逐渐被打破。网络首先淡化了地域分工,随后又通过知识的扩散淡化了专业分工,社会价值的传播又使得人们根据价值观念重新聚合而不再只根据血缘、地域或者族群。人工智能的出现,则进一步打破了传统的分工体系,模糊了社会的内部边界。

   人类之所以长期形成了内部分工体系,当然一方面是自然条件的约束和阻隔,但另一方面也是由于人类较慢的学习能力。尽管人类显然具有远超于其他生物的学习能力和组织能力,然而与人工智能相比,人类的学习能力显然太慢了。人工智能所拥有的高运算能力、高信息检索能力、高进化性使得其远远超过人类的学习能力。一名顶级的围棋选手需要毕生的学习而人工智能只需要三天的自我博弈就可以了。这种极为强大的学习能力产生了三个明显的后果:

   第一,其极大加强了机器的多样性能力,淡化了生产体系的专业边界。自工业革命以来,生产领域的专业化在极大加强了效率的同时也限定了机器的狭窄的专业性,也就是一种机器被专门设计从事特殊的工序,而很难进行切换。近年来,随着快速制造、柔性制造、数控机床的发展,加大了机器的柔性转换能力[[16]]。伴随着人工智能在生产领域的不断契入,人工智能的多样化与柔性制造的结合,最终将模糊和淡化机器之间的严格分工边界。生产一种产品的机器在需要的时候可以智能的转换为另一种。这同样意味着整个智能生产体系将打破基于产品的分工边界。

   第二,其极大加强了人类的学习能力,从而淡化了人与人之间的社会专业分工边界。在人工智能的辅助下,人类在切换新的领域时不再需要漫长的训练,而只需要监督人工智能工作就可以了。那么,这就改变了人类必须通过长期训练才能够胜任工作的必要性,人类逐渐在人工智能的辅助下逐渐成为多能者,社会分工体系的必要性就会降低。

   第三,其最终模糊了人与机器之间的严格界限。人作为主体而机器作为客体的严格分界,最终将被作为智慧载体的人工智能打破。目前正在开发的包括机器与人类神经直接连接的技术(如脑联网),都将模糊人与机器之间的界限。

   当机器与机器、人与人、人与机器之间的分界线逐渐模糊的时候,那么从好的方面,这意味着更大的社会灵活性和适应性,然而,这也同样意味着传统基于分工形成的社会结构的逐渐瓦解。

   (五)能力溢出

   人类长期以来都面临着(人和机器)能力不足的问题,传统社会长期是一个能力稀缺的社会,因此,人类长期以来一直都在致力于增强人类自身和机器的能力。然而,直到近年来,随着信息技术的指数级增长,人类开始逐渐遇到了机器能力超出或者冗余的问题。例如,在大量的计算机辅助的工作,如文档处理、文字与视频交互、网页浏览、工业控制等,人们远没有用到今天动辄百亿晶体管芯片的全部能力,甚至十余年前的芯片也足以满足大部分工作场景。这就引发了能力超出的问题。

   在人工智能时代,这种能力超出将表现的更为明显,人工智能是一个基于复杂的硬件、算法、网络、数据的堆叠体系。在强大的算力增长和网络与数据的推动下,人工智能的能力也会飞快的超越其人类预想的工作场景的能力。

这种普遍的能力超出,将会带来几个影响,一是可能会造成较为严重的浪费;二是有可能会形成计算能力的普遍化,也就是学术上称之为“普适计算”;三则是对人工智能的安全控制形成不利影响。基于智能设备普遍连接和分布式运算形成的分布式智能体系,显然将比集中式的人工智能体系更加难以理解、预料和监控。这显然会产生较为严重的安全威胁。例如,以最常见的拥堵式网络攻击(分布式拒绝服务攻击,DDOS)而言,显然大量了冗余计算能力为攻击者提供了足够的分布式算力。而人工智能的普遍分布化,

*免责声明:本站文章图文版权归原作者及原出处所有 ,文章内容为作者个人观点,并不代表本网站。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

猜你喜欢

点击: