本月初,世界人工智能大会在上海召开。会议期间,张文泓博士说,“在人工智能如火如荼的今天,抗疫靠传统智慧”,引起了很多人的共鸣。

人工智能曾经是科幻题材。有人担心人工智能会取代人类,甚至反人类。然而过了几年,我们发现人工智能并没有我们想象的那么智能。“问题”是什么?

从2004年起,复旦大学哲学系教授许金英开始关注人工智能。他不仅撰写了大量相关论文和专著,还开设了一门深受学生欢迎的人工智能哲学课程。

前几天,他谈到了自己对上述问题的想法。他的分析从两个问题开始:“人是什么”“智力是什么”。

没有认识到现实与理想的差距,就会导致“泡沫”

严格来说,人工智能的主流技术并不是新的,它来自传统技术的反复迭代。

关于人工智能的发展,目前有三种说法:“乐观”、“悲观”、“泡沫”。

解放星期一:世界人工智能大会引起了许多非专业人士对人工智能的兴趣。每个人都想知道人工智能是如何发展的。如何看待目前人工智能的发展?

许:目前,公众对人工智能有很多期望,但据我观察,这些期望是基于对学术界实际发展的一些误解。

经常听到各种误解。第一个误区是人工智能是一个新生事物,是近几年才出现的。事实上,人工智能一词是在1956年美国达特茅斯会议上正式成为公认的学科术语的。显然,这是相当久以前的事了。

至于现在讲的很多的深度学习技巧,前身是人工神经网络。这个概念在20世纪60年代就被学术界注意到了。人工智能的创始人之一艾伦·图灵生前也对人工神经网络做过一些粗浅的研究。这样,这项技术至少可以追溯到20世纪40年代。

所以严格来说,人工智能的主流技术并不是新的,它来自于传统技术的反复迭代。

解放星期一:那么,人工智能技术发展至今的现状如何?

许:目前关于人工智能的发展有三种说法:“乐观论”、“悲观论”和“泡沫论”。

其中,“乐观主义者”可能是主流。乐观主义者认为,人工智能的发展可以在短时间内解决我们面临的各种问题。

这个论点描绘了一个乌托邦的场景:当你回到家,所有的设备都可以通过新的网络技术和物联网与你连接;你不需要开车。上车后,你可以什么也不做就把你带到目的地。一路走来,你也可以和你的车对话,就像它是你的人类司机一样。

悲观主义者站在那些可能失业的人的立场上,认为人工智能太强大,取代不了很多人的工作。到那时,如果社会暂时不能提供更多的新工作,我们能做些什么呢?

我的观点是泡沫论。“泡沫”并不意味着人工智能的未来暗淡无光,而是短期内,这项技术的发展无法支撑很多人的梦想。

理想是饱满的,技术还是“骨感”。如果没有意识到理想和现实的差距,就会产生泡沫。如果因为看好人工智能而去市场融资,需要慎重考虑。

历史上确实有成功的案例,比如ibm360计算机项目。

随着它的成功,计算机已经逐渐从只有先进的科研机构才能在办公室使用的非常笨重的状态改变,为个人电脑的出现奠定了基础。但是失败的案例很多。如果所有关于人工智能的融资方案都把未来描述的很美好,蛋糕画的很大,最后很可能会出现问题。

我个人对人工智能未来发展的基本判断是-

人工智能改变我们的生活不是全球性和颠覆性的,而是地方性的。比如在线教育、养老等领域,人工智能可以促进一些变化,带来一些商机。但是有些项目,比如自动驾驶,很可能会有一些泡沫,要慎重对待。

当然,我提倡的“泡沫理论”是基于一些基本概念的定义,比如“特殊人工智能”和“一般人工智能”。

用传统方法降低解决问题的能力是危险的

李世石应该会做泡面,会开车。和alphago下棋后,也可以接受媒体采访,聊聊自己的感受。不过alphago肯定不会开车,更别说和李世石下棋之后和人类和媒体交流了。

现在的人工智能都是基于大数据的,对于小概率和偶然事件缺乏应对机制。当它面对这个不断变化的世界时,它不知道如何应对。

解放星期一:如何区分「特殊人工智能」和「一般人工智能」?

许金英:特殊人工智能是只能做一两件事的人工智能,一般人工智能是能做一些事的人工智能。

比如李世石是棋手,alphago是围棋程序。如果把李世石当成一个智能系统,他就是一个万能的智能系统。因为他除了下棋还能做很多别的事情。比如他应该会做泡面,会开车。和alphago下棋后,也可以接受媒体采访,聊聊自己的感受。不过alphago肯定不会开车,更别说和李世石下棋之后和人类和媒体交流了。经过这种比较,我们可以清楚地看到特殊人工智能的局限性。

[科学技术]人工智能离理想还有多远

我们人类的特点是,可能在一件事情上是专家,可以做其他事情,但不那么好。但是特殊的人工智能只能做特殊的事情,其他的几乎不能考虑。仅从这一点来看,专业人工智能和综合能力一般的人工智能还是有很大区别的。

我们现在看到的人工智能都是特殊的,它们的产生思路都是按照特殊人工智能的思路来做的,比如人脸识别,语音识别。目前,人工智能通过卷积神经网络技术的进步获得了一种重要的能力,即可以同时通过人脸和语音识别他人。但是对于人工智能来说,基于神经网络的图像识别系统和语音识别系统是两回事。

解放星期一:现在很多人对人工智能的想象都是建立在“一般人工智能”的基础上的。

许金英:没错。这就成了一件比较麻烦的事情。

很多人喜欢看美剧,发现里面有些机器人已经很厉害了。有些机器人不仅具备了人类的特征,还开始反抗人类。看了这样的故事,会有人开始联想:如果我们和这样的机器人生活在一起,会是怎样的威胁?

自然,很多人对人工智能的思考都是基于这类科幻影视作品。科幻影视作品受众广,不需要多少科学素养就能理解,传播力和影响力大。

我有一个观点:我们应该看一些硬科幻,而不是软科幻。硬科幻更贴近今天的科学,更严谨地运用科学知识。与软科幻相比,硬科幻更适合科普,能增强普通人思考和把握现实世界的能力。

现在的人工智能都是基于大数据的,对于小概率和偶然事件缺乏应对机制。当它面对这个不断变化的世界时(比如新病毒,规模未知的洪水等等。),它不知道怎么处理。

所以,我关注的不是人工智能有了人类意识后会和人对抗,而是人类过分依赖人工智能后会变得更简单。

不要以为用现代先进的工具就可以放弃传统。比如。假设现在有两支军队对峙,双方都有能力使用最新的网络信息技术,但只要一方突破对方的网络防御,对方的信息基础设施就会崩溃。当时只能用最原始的方法(比如信鸽,鸡毛字母等。)来传递信息。

合理想象人工智能没有错,但是如果我们想象人工智能的能力过于强大,同时又忽视了保持用传统方法和传统智慧解决问题的能力,可能会让人类陷入一些尴尬的境地。

为什么现在不能发展通用人工智能

通用人工智能系统的特点是通用性。既然是普遍性的,就要处理全球性的问题。整体情况如何?就是要有在不同理论体系之间进行选择的能力。

基于深度学习的神经网络技术以强大的机器质量计算掩盖了方法本身的“愚蠢”。对于深度学习来说,拥有现成的数据是非常容易的,但是如果没有高质量的数据,自己收集数据是很有问题的。

解放星期一:目前的“深度学习”技术有望在短时间内达到一般人工智能的水平吗?

许金英:人们曾设想有一种机器可以在没有任何外部输入能量或只有初始能量的情况下自动运动。在哲学家看来,这种思想经不起严密的推敲,根本站不住脚。在我看来,一般的人工智能只能停留在试探阶段。

通用人工智能系统的特点是通用性。既然是普遍性的,就要处理全球性的问题。整体情况如何?就是要有在不同理论体系之间进行选择的能力。不同的需求之间往往会有冲突,人类有能力找到平衡各种矛盾的方法,找到中庸之道。

举个大家能更好理解的例子。一个家政工人去雇主家工作。如果用人单位是知识分子,家里有很多书,可以让家政尽量打扫书房,但不能打扫到找不到书。

家里有很多书的人都知道,书的易读性和整洁性往往是互相矛盾的。放书的时候房子比较干净整洁,但是如果几本书同时看的话,堆好了之后要花时间找回来。这个时候,是利索还是好拿?这里有一个平衡点。这一平衡点的到来需要家政工人和雇主之间的长期磨合,但很难通过程序来设定。

任何一个集成的系统都必须具备处理各种复杂甚至突发情况的能力。其中一些情况甚至是极端的和偶然的。例如,一辆自动驾驶汽车正在路上行驶。路左边走着一个路人,路右边走着五个路人。万一车速太快无法刹车,该往哪边拐?假设这个节目突然得到消息,左边的路人是我们国家很重要的专家,应该如何选择?

很多人先是凭直觉认为专家更重要,但转念一想,每个人类个体的生命都是平等的。遇到这样的问题,人类会做出痛苦的选择,反复做出选择。

如果是机器,问题就麻烦了。众所周知,人工智能是建立在一系列规则的基础上的,这些规则的背后是各种逻辑原理。一旦情况过于特殊或复杂,机器中基于不同逻辑规则的程序之间就会产生争斗。

我再举个例子。假设有个外地男孩去少林寺学武术。我该怎么办?有一个办法,就是师傅做一个动作,小伙子跟着做;做对了师父就笑,做错了师父就喝。这样,年轻人在被重击时就知道自己做错了。但是,如果师父没有讲清楚,也没有详细解释,他需要不断地猜测、尝试、犯错。这时,语言的好处就显而易见了。如果对方能听懂对方的语言,大师可以教他一整套包括武学规则在内的内容,帮助他理解,然后由学生自己转化为行动。深度学习是基于神经网络的运行。神经网络的操作和上面说的傻逼教学法差不多。

[科学技术]人工智能离理想还有多远

人的错误之后的自省,是建立在真理和规则之上的。但体制不是。遇到障碍后,解决办法是调整各种参数,试错再猜。它通过大量的猜测将事情慢慢引向正确的方向。它的优势在于可以在极短的时间内完成人类无法完成的海量猜测。深度学习基于神经网络技术,用强大的机器质量计算掩盖了方法本身的“愚蠢”。但问题是,对于深度学习来说,很容易就有现成的数据,如果没有高质量的数据,自己收集数据是很有问题的。

[科学技术]人工智能离理想还有多远

解放星期一:如果一般人工智能是为了处理全球性问题,需要收集的数据会更复杂。

许金英:是的。因此,当前深度学习机制的根本问题是缺乏跨学科学习能力。这就是人工智能不能普遍化和全球化的根本原因。

在我们的日常生活中,不同的系统以不同的方式运行。象棋有下棋的方法,围棋有围棋的方法。人可以适应变化,但是人工智能很难适应。

解放星期一:很多人会问,能不能把各种特殊的人工智能整合成一套通用的人工智能?

许金英:还有一个问题——协调。这和企业运筹帷幄一样,需要各个团队和部门的配合,需要一个具有综合能力的人来领导,而人工智能不具备整体的调度和配置能力。

为了研究人工智能和人类智能还比较差的地方,有专家提出了所谓的“卡特尔-霍恩-卡罗尔”三层智能模型。它们把一般智力分解成很多部分,比如流体智力、晶体智力、定量推理、读写能力、短时记忆、长时记忆、视觉加工、听觉加工。

定量推理无非是算术,读写能力是看你能不能看懂文章和重点。水晶智能就像现在老师给你出一道题,告诉你解决方法,然后看你能不能把做题的思路转移到新的思路上。流体智能要求更高,很大程度上强调的是一种灵活调用各种智能的状态。

至少目前人工智能不是按照人类智力能力的发展方向发展的。从长远来看,它的“伪人类”是很有问题的,离真正的一般人工智能还很远。记者刘森

标题:[科学技术]人工智能离理想还有多远

地址:http://www.heliu2.cn/xw/11945.html