漆黑的宇宙中,飞船“发现号”在孤单的漂浮着。周围除了死气沉沉的星球和星云,只有两个人在

进行着人类历史上最大的争执。

【鲍曼回答时感到自己如履薄冰:“由于出现了紧急情况我需要尽可能多的助手。因此请给我人力
冬眠控制。”

“如果你仍然决心要让整个机组复苏,我可以单独处理。不需要麻烦你。”

“我想要自己干,哈尔, “他说, “请给我控制。”

“你瞧,大卫,你有好多事要做。我建议你把这个交给我。”

“哈尔,这飞船是由我指挥的。我命令你打开人力冬眠控制。”

“对不起,大卫,但是按照特别程序 C1435—4,我引用如下:当机组死亡或不能视事时,船上
计算机必须接管控制。因此,我必须宣布你的权力已经无效,因为你是处在不能明智地执行任务
的状态。”

“哈尔,”鲍曼说,说时极端冷静,“我并非不能视事。除非你服从我的命令,我只有被迫切断你的
电源。”】

鲍曼是飞船的指挥官,而哈尔,是飞船上的智能电脑。他们此行的目的是去调查土星上一个可能
的地外生物信号源,而为了保密需要,鲍曼对此并不知情。直到处在冬眠状态的受过特殊训练的
三个同伴醒来之后,按计划他才会知道此行的真正目的。但对于哈尔来说,他是知道一切的,也
是需要隐瞒一切的。在几亿公里外的实验室中,他被设定唯一的使命就是把飞船安全带到土星,
在保密的状态下。在他的眼中,没有感情,只有使命。任何妨碍他的使命的事情必须被铲除。于
是才出现了上文的争执,出现了他后来对机组人员的谋杀。

上面的情节出自于电影《2001 太空漫游》,其中的电脑哈尔被网站 totalfilm 评为了银幕最邪恶
电脑之首。这些都只是作家们的想象,今天,小编就要和大家聊聊现实中的人工智能 (Artificial
intelligence)。

AI 的发展

正如几乎所有其他科学一样,对于人工智能的第一瞥来自哲学家的思考。霍布斯在利维坦中的一
句名言 “推理就是计算 (reason is nothing but reckoning)”代表了当时的普遍观点(Hobbes,
2013)。哲学家们相信思想是可以被用符号表达的,而这也成为了日后 AI 研究的指导思想。

图灵机思想的出现把公式又向前拓展了一步。图灵机是一个虚拟的模型。假设有一条有无限格子
的纸带,有一个读写器可以读取一个格子,并却根据一套规则来填上下一个格子。运用这个方法
他证明了任何逻辑计算过程都可以以机械的形式被表达出来 (Berlinsky, 2000)。这两个早期思
想证明了把思想用机械形式表达的可行性。

2004)。可如果完全一丝不苟的按 照这个方案去计算,在面对一些复杂问题时经常会遇到可能路径数的指数爆炸,使得可能性太多 而不可能一一尝试。对此,研究人员经常会编写一个启发式算法 (heuristic),模仿人类大脑归纳 总结并给出最有可能的路径。它的最大应用在于编写通用解题器 (General Problem Solver) , 用于数学定理的发现和证明。 自然语言指的例如中文英语这种已经存在的人类语言。AI 的一个重要目标就是可以通过自然语言 和人类交流。如果用一个网状图表示出所有词组之间的逻辑关系,便可以形成一张语义网 (semantic net)。通过这个网络,AI 就可以实现与其他人类进行顺畅交流,有时甚至不会被发现 只是一个 AI (Crevier.战争是令科学思想走向应用的最好方式之一,对于早期智能电脑也不例外。二战时,德国为了编 写和翻译密码,以图灵机的思路制造了 enigma 机。每个输入的信号通过转子的连接,输出的便 是一段无意义、极难破解的密码。他被认为是现代计算机的雏形。之后英德针对 enigma 的密码 战,经过电影《模仿游戏》的演绎,已经是广为人知了。 二战过后,人工智能正式开始了自己的发展。受到 Bowditch 关于神经元只有激发和未激发两种 状态的启发,人们想到可以利用电路的开合模拟神经的联系 (Bowditch. 1878) 。由此, Minsky 在 1951 年设计并建立了第一个人工神经网络 SNARC。SNARC 有 40 个人工突触(指神 经元的连接部分),可以总结并记忆一个时间发生的概率。至此,人类迈出了 AI 探索的第一步。 一句题外话,他也是那个会自己关电源的无用机器的发明者。【这里可以插个图】 1956 年,人工智能领域几乎所有先驱者们在上文 Minsky 的组织下,在达特茅斯举行了第一次 人工智能领域的会议。会上第一次正式将 AI 定为一个独立的学科,所以他也被认为是 AI 诞生的 标志。他们提出了: “学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述,使 得机器可以对其进行模拟。” (McCorduck. 1995)。这也就是所谓的通过了图灵测试。但其实它只是在按照固定套路 作答,并不能真正意识到自己所“说”话的含义,所以还不能被认为是真正意义上拥有和智慧生命 一样的所谓“智能”。 微世界主要用于构建理想模型,比如物理学研究中绝对光滑平面模型。他的用户界面很简单,经 常就是一个平面上面放了一些各种颜色的积木,所以又叫积木世界。经过升级之后加装了机械臂, 从而可以真正按照命令来搭积木,有了智能的成分 (McCorduck. 2004) 这也是 AI 继续发展的理论基础。 研究方向 在人工智能建立之后,涌现出了许多新的研究方向,这里介绍三种:搜索式推理、自然语言、和 微世界。 搜索式推理是 AI 最常用的一种运算方法。这个方法就像是走迷宫一样,先尝试一种路径,如果走 不通就折回上一步尝试,直到达到预定的目标 (McCorduck. 2004)。人类的视觉包含了基 于物理常识的猜测,比如会运用遮挡、大小、角度等等来判断远近。这种物理模型方面的研究也 可以用来进行类似的猜测,从而在机器视觉方面寻找新的突破。 AI 的道德难题 .

I.》中,主人 公 David 就是这样的一个例子。他是一个机器孩子,他的“父母”因为亲生孩子患重病而被买下。 后来当他们的儿子痊愈之后,问题就随之而来。David 被设定的情感就是去爱他的父母,但他却 想不明白为什么爸爸妈妈不会想爱一个真正的孩子一样去爱他。他听过一个童话,仙女可以把匹 诺曹变成真正的小孩。而在影片最后,仙女的雕塑被风化、粉碎,同样粉碎的是 David 渴望被爱 的心。或许他们永远只是一个宠物,一个真正孩子的替代品。他体内的芯片决定了他不可能被真 正的爱。 或许情感和伦理也是智慧的一部分,在人工智能获得更快的运算速度、更准确的逻辑推理、更有 效的交流方式的同时,他们也会有一套更加公正的道德系统。由于足够的认知效率,AI 将不需要 依赖成见 (Stereotype) 来认识世界,由此,可能歧视对他们来说将不复存在。所有智慧生命, 不论种族、性别、甚至是否是血肉之躯对他们都没有所谓。像 David 一样,跨越千年只为寻找心 中的爱也不是没有可能。或许我们需要做的,只是给他们以尊重,像对待任何其他智能体一样面 对人工智能,给他们以足够的生存空间和权利。或许那样,人工智能真的可以像大白一样,也成 为我们身边萌萌的一员。 .和 AI 有关的道德难题是发展人工智能时除了技术的另一个壁垒。面对种种机器人即将取代人类的 警告,到底应不应该发展强人工智能?在发展之后如何面对他们?是否给予他们人权?如何防止 人类被淘汰?抑或从肉体到机器的过程本来就是进化的优胜劣汰?关于这些问题的思考很多需要 上升到哲学的高度。在这里,我们只是通过一些电影来大致了解一下关于此的几种思路。 最悲观的比如《终结者》、《黑客帝国》。人工智能占领地球,人类有用则奴役人类,人类无用 则追杀人类。反抗军在夹缝中求生存,一个任务失败,带来的可能是全人类最终的灭亡。在现在 这样一个历史的岔路口的人类,却对眼前的危险并不自知,以为机器人占领世界纯属天方夜谭。 在他们看来,或许不发展 AI 才是唯一正确且安全的选择。 稍微乐观一点的比如引子里《2001 太空漫游》的 Hal2000。一个脆弱的电子心灵并不能隐瞒秘 密,于是在压力下他选择了杀掉所有人,然后自己孤独的去完成任务。不管他做了什么, Hal2000 的本意只是完成任务,但他的设置决定了他会不惜一切代价的完成它。人工智能本身的 限制决定了他可能对人类有害的结果。 或许人工智能所需要的,只是能够被当成一个普通的智能生物被对待。在电影《A.