文章摘要:人们倾向于认为,大部分人工智能系统和特殊的机器人类似于人类的大脑和肌肉,虽然可以理解,但是这样的想法却是很危险的。长期以来,人工智能领域一直在利用我们对于人格化对象(看起来像我们或者行为像我们)的自然···
人工智能
人们倾向于认为,大部分人工智能系统和特殊的机器人类似于人类的大脑和肌肉,虽然可以理解,但是这样的想法却是很危险的。
长期以来,人工智能领域一直在利用我们对于人格化对象(看起来像我们或者行为像我们)的自然喜好,因为它们可以吸引人的注意力或吸引投资。
但同时这样的对象也会误导人们,让人们相信机器比它们实际上更像我们,并进一步假设它们有理解能力并会遵守我们的社会习俗。
如果我们对于这些系统是如何工作的没有深入理解的话,如果我们只拿人类作为可用范例来解读结果的话,那么我们非常有可能会把人工智能视为像人一样的存在。但是,它们不是人。
超级计算机沃森击败两名全球顶尖选手,获得冠军
在《危险边缘》中露脸的IBM超级计算机沃森就是一个例子。让系统“说”出自己的回答实在是没有什么技术理由,更别说还要弄出一个带有旋转亮光的像头一样的图像以显示机器的大脑正在思考问题。
这些东西只是对一个伟大技术成就的次要装饰。没有几个人发现其实沃森根本没有在听《危险边缘》的线索:当亚里克斯·特里贝克开始说话的时候,文本就立即输送给了沃森,这样它在“计算机时间”上就取得了先机,因为人类参赛者还在等待特里贝克把话说完。
但是沃森的主要优势在于快速“抢答”,在收到“线索已完整”的信号之后的几毫秒内,它就可以按下抢答键,比人类所能做到的要快得多。沃森可以被描述成一个复杂的数据检索系统,我们也可以给它起一个听起来更有技术感的名字,但是那样的话沃森在电视上就不会有如此的吸引力了。
这种廉价的拟人化设定对于人工智能领域来说是一场灾难,我把其称为“AI剧院”,这种现象耗费了隐形的成本。就像把互联网称为“网络空间”一样,这个称呼暗示着互联网是一个和我们的法律法规相分割的领域,这种意识混淆了公众的理解,也因此阻碍了重要的政策议题和讨论。
所以当外表像人的机械附件开始在工厂车间工作的时候,人们很容易就会期望这些机器人的行为能和人类的社会约束有一定的相似性,比如不会随意打人。另外,正如所有人知道的那样,它们只会按照编好的程序工作。
可是问题在于,这些早期的机器人通常只会重复死记硬背的预定动作。如果你挡住了它们的去路,那么你就很有可能会被冲撞,甚至更糟。很快大家就明白过来,为什么美国职业安全与健康管理局在工厂作业安全中规定,必须把这些机器人当作新一代的加强版机器,而非能力不足的工人。
在工厂和研究实验室(甚至包括MIT的实验室)中,标准的操作是在机器人所在区域周围的地板上贴上亮色胶条,指示出“杀戮地带”,在这个区域中你不能在没有特殊防护措施的情况下冒险行动。在很多电影中出现过的巨大红色开关必须置放在关键位置,以防紧急情况发生。