我们要担心的不是机器人杀手 而是他们的创造者

网易科技 2017-11-14

  有一天,人工智能机器人将取代人类,成为地球上的主导生命形式,史蒂芬·霍金(以及伊隆·马斯克)如是说。然而,尽管近年来人工智能和机器人领域取得了令人瞩目的进步,但同样也给社会带来了最紧迫、最真实的危险。

  具体来说,威胁不在于人工智能是否会超越他们现在所服务的目标(如管理对冲基金或招募新员工),也不在于它们是否会反抗主人。而在于,人工智能在替主人行事时,是多么的高效。

  事实上,由于机器人和人工智能还没有展现出丝毫自主性或独立性,霍金口中“新形式的生命”显然对它们而言并不恰当。相反,它们的存在只是一种扩展形式,扩展的是制造和使用它们的群体。它们是一种复杂的工具,它们帮助组织执行某些活动。

  正因为它们是其运作者的延伸,对社会而言才成为了潜在威胁。机器人是由特定人群设计和使用,而这些人有着特定的价值观和利益。这意味着,它们的行动不可避免地会反映和推进这些价值观和利益,而这些价值和利益并非符合所有群体和个人。它们具有卓越的效率和生产率,这意味着,它们将给拥有足够资源的人带来独特的优势,使其能够以自己的想法塑造世界,而牺牲那些普通人的利益。

  人工智能和人类学会了偏见

  要了解人工智能如何增加社会、经济和政治的不平等,你只需看看最近的例子,这些例子表明,人工智能和机器学习算法已经显示出了偏见。

  例如,2016年5月,ProPublica的一项研究显示,在美国多个州使用的累犯评估算法对非裔美国人存在偏见,不其标记为“更高危人群”的比例为44.9%,而白人的这一比例为23.5%。

  又如,2017年4月在《科学》杂志上发表的一篇研究论文发现,在互联网上学习大量的词汇联想时,机器学习工具获得了关于女性和非裔美国人的“类似人的语义偏见”(也就是刻板印象)。

  之所以出现这样的偏见,是因为人工智能和机器人从它们所接收的数据和参数中学习。更常见的情况是,这些数据和参数来自于那些设计和使用它们的人:即社会等级较高,享有特权的白人男性。

  正因为如此,人工智能面部识别软件难以识别有色人种的脸。也因为如此,人工智能和机器人能够更好地促进其制造者和所有者的利益,而不是其他人的利益。

  更重要的是,到2027年,他们的工作效率会更卓越,会渗透到大约2470万个工作岗位,这意味着,他们将在大部分生活和工作领域打下其制造者的烙印。它们会让数以百万计的工薪阶层失业,它们将会给有能力采用它们的组织巨大的商业竞争优势。因此,若一些国家和阶层能够制造并拥有它们,这些国家和群体将会增强更大的全球影响力。

  人工智能只能为少数人代言

  基于上述原因,目前越来越多向机器人赋权(甚至是赋予公民身份)的讨论令人不安。机器人和人工智能受其主人产权的保护,是不能被随意破坏的。

  因此,很明显,赋予他们“权利”并不意味着给予他们免受破坏的消极权利(因为他们已经有了这样的权利),但必须等于给予他们积极权利,使其追求自己的目标(例如,政治反对),而不受来自其他方面(例如,那些不支持机器人的人)的干扰。

  换句话说,这种赋权实际上等同于授权人工智能的所有者,让他们的目标、目的、价值观受到特殊的保护,这些所有者可以利用人工智能和机器人来达到自身目的。

  最后,提到价值观,我们就触及了另一个不确定的主题,这个主题经常会在人工智能的讨论中出现。无论是欧洲议会还是研究机构,人们经常说,我们需要确保智能机器人可以学习和维护人类的价值观。然而,问题是:到底机器人会传授和支持谁的价值观,而谁又会为全人类说话呢?

  不管一套真正的普世价值观能否被灌输到人工智能中,这样的讨论只是表明,机器人的行为方式会产生道德、社会和经济影响,它们只得沦为某些价值观的载体。

  而令人担忧的是,他们将在很大程度上由一群特定的企业和实业家制造和控制。在此情况下,他们的高效性极有可能会助力于这类人的价值观和利益的实现——不管是好是坏。

本文由科普中国专家北京工业大学教授、博士生导师,中国人工智能学会科普工作委员会秘书长于乃功进行科学性把关

责任编辑:王超

科普中国APP 科普中国微信 科普中国微博
网易科技
是中国科协为深入推进科普信息化建设而塑造的全新品牌,旨在以科普内容建设为重点,充分依托现有的传播渠道和平台,使科普信息化建设与传统科普深度融合,以公众关注度作为项目精准评估的标准,提升国家科普公共服务水平。

猜你喜欢