“黑箱AI”是造福还是作孽?取决于人类

网易科技 2017-12-11

  对于发生在“黑箱”中的深度学习,人们总是会产生各种各样的担忧,包括“人工智能(AI)将会崛起并摧毁所有人类”的可怕预测,你如何为这种无法理解的系统提供监督?然而,就像其他工具一样,“黑箱AI”是否会带来危险,完全取决于我们选择使用它的方式。

  新闻媒体宣称这种AI是不值得信任的,并告诉我们,专家们寻求结束在政府中使用“黑箱AI”。但到底什么是“黑箱AI”呢?当我们对计算机系统的了解仅限于其输入和输出,而不了解机器是如何决定导致输出结果时,这个神秘的部分就存在于我们无法看到的“黑箱”中。

  这听起来可能有点儿吓人,但正如我们之前解释的那样,其实不然。有些人可以在大脑中完成长长的数字运算,而不用展示他们是如何做到的,实际上这与“黑箱AI”没什么不同。当然,就像高中代数老师要求你解释如何得出结论的,有很多正当的理由来解释:为什么我们需要知道AI是如何给出输出结果的。

  最主要的原因是为了避免偏见,偏见已经成为那些认为政府应该规范AI的人的“战斗口号”。ProPublica在有关“偏见AI”的获奖文章中揭露了一种邪恶的、基于算法的种族歧视现象,黑人男性受到美国刑事司法体系的不公平对待。

  如果摆脱“黑箱AI”可能终结种族歧视,那么这场讨论就结束了,我们会说放弃它吧!然而,如果你想终结“黑箱AI偏见”,最简单的方法就是遵循AI Now研究所的专家建议,停止在需要问责的政府职能部门中使用它。

  任何主张全面禁止“黑箱AI”的人,就像要求研究人员停止推动癌症技术研究那样,直到我们能把整个事情解决掉。如果普通科技社区继续允许散播恐惧的言论,声称“黑箱AI”是危险的,那么就会出现令人担忧的争论。

  如果我们的政策制定者相信这一点,并对深度学习系统加以限制,那么他们必须充分认识到这些限制可能会扼杀拯救生命的研究。就“黑箱AI”而言,目前的情况并不要求对该技术的开发加以限制。相反,我们需要理解使用“黑箱AI”的道德标准。

  这里有几个问题可以帮助你判断无知是否幸福:

  1.有些“黑箱AI”可能比人类更准确地诊断癌症。即使你永远也不知道计算机是如何达到这个目标的,你会不会接受这种技术进步呢?

  2.你即将被判刑,而电脑将决定你是否应该被送去监狱。它认为你应该为首次犯下的轻罪而被判处20年监禁,但没人知道为什么。每种情况都需要不同的协议。

  当人类因缺乏理解而受到负面影响时,我们应该避免使用“黑箱”系统,除非我们能更好地消除偏见。当人类已经面临死亡威胁,例如数以百万计的车祸,或者因为癌症没有及时得到诊断,仅仅因为“黑箱AI”没有显示出工作原理就不使用它,这似乎显得更不道德。

  你可以为任何“不受控制的”AI使用创造一个末日场景,但“黑箱深度学习”并不是人类愚蠢到无法理解的某种神奇力量。这是人们使用数学捷径的结果,因为我们没有时间坐下来计算指数因子。

  现在,在我毁掉每个人的生活之前,我承认AI很有可能会在某一天出现,并以冷血的方式杀掉我们所有人。但这不可能是因为“黑箱深度学习”。重要的是,我们不使用AI来做出人们不想做的艰难决定。在发出“盲目的”正义时,不应该存在能够将种族纳入考虑范围的计算机。

  我们应该继续开发尖端AI技术,即使这意味着创造出可以被坏人或愚蠢的人类利用的系统。我们因为同样的原因,也曾发明了更锋利的刀和更结实的绳子。这不是为了更好地用于邪恶或无知的人的目的,而是因为它有可能造福全人类。

  “黑箱AI”的问题不在于它如何解决问题,而是我们如何选择使用它。另一方面,如果“黑箱AI”直接负责将机器人送回地球,并杀死我们所有人,那么那可能是因为我们自己的原因。

责任编辑:王超

科普中国APP 科普中国微信 科普中国微博
网易科技
是中国科协为深入推进科普信息化建设而塑造的全新品牌,旨在以科普内容建设为重点,充分依托现有的传播渠道和平台,使科普信息化建设与传统科普深度融合,以公众关注度作为项目精准评估的标准,提升国家科普公共服务水平。

猜你喜欢