新浪博客

理想与现实的鸿沟

2020-06-17 09:49阅读:
——AI并非无所不能
文/姚斌
《如何创造可信的AI》是我最近阅读的有关人工智能(AI)的论著。我之前阅读的一本是《AI的25种可能》。在那一本书中,我们看到了人工智能的25种“可能”。归纳起来,科学家们对人工智能有时或者形成了两个极端,或夸大其词,或直接看淡,如此,皆无助于对人工智能的客观认知和研究进程。
盖瑞·马库斯本身既是首屈一指的人类智能科学家,又是创建机器智能公司的企业家。由于他的深度思考,他看到了当今人工智能的局限性,认为人工智能真正要达到人类水平的智能还很遥远。因此,在他所著的《如何创造可信的AI》这本书中,他清晰地揭示了如今的人工智能能做什么和不能做什么,并指出了通往更少“人工”,更多“智能”的道路。
1
在早期的研究中,人工智能曾被赋予宏大的愿景。包括马文·明斯基、赫伯特·西蒙在内的许多先驱者一致认为,AI问题将在20世纪末之前被彻底解决,在2029年之前将超越人类本身的智慧。他们的后继者,比如雷·库兹韦尔、埃里克·施密特、彼得·戴曼迪斯等人更是信心满满,相信AI无所不能。然而,直到今日,几乎可以确定,在人工智能发展中可谓“愿景有余而落地不足”。我们距离具有人类智能灵活性的通用人工智能太过遥远,不是再走几小步就能到达的。
马库斯认为,人们总是倾向于过高估计AI的实际能力,其原因在技术大鳄与新闻媒体的夸大其词,将每一次小小的成绩描述成天翻地覆的历史性突破,而现实却远远没有那么性感。因此,马库斯的这本书就是帮助读者以怀疑的眼光看待现实。在怀疑之中,追问时至今日AI依然没有步入正轨的原因,提出究竟该怎么做才能获得稳健而可信的AI。
实际上,近年来,AI许多成功的案例大都得到两个因素的驱动:一是硬件的进步,通过让许多机器并行工作,更大的内存和更快的计算速度成为现实;二是大数据,包含10亿字节、万亿字节乃至更多数据的巨大数据集,在几年前还不存在。与此同时,深度学习和数据一起出现,这是用于数据处理的算法,是一种极其强大的统计引擎。从DeepMind下围棋的AlphaZero和下国际象棋的AlphaZero,到谷歌推出的对话和语音合成系统谷歌Duplex, AI近几年所取得每一项进展,其核心都是深度学习。大数据、深度学习再加上速度更快的硬件,便是AI的制胜之道。
2
AI有狭义与
广义之分。狭义AI只能应用于其设计初衷所针对的特定任务,前提是系统所遇到的问题与其之前所经历过的场景并没有太大的不同。这样的现实,令AI可以完全征服围棋,因为围棋2500年来始终保持着一成不变的规则。该现实令现有的AI在真实世界的场景中黯然失色。我们现在所拥有的AI软件基本等同于数字化白痴专家。它可以读懂银行支票、给照片打标签、在餐厅订座位、以世界冠军的水准玩棋牌游戏,但也仅限于此。彼得·蒂尔曾说过,我们本来想要的是能飞到天空的汽车,结果得到的却是140个字符。
实际上,理想的AI应该像人类一样阅读和推理,还能利用现代计算机系统的精确度、耐心和庞大的计算资源,科学和技术就会得到迅速提升,医学和环境科学也将出现巨大改善。然而,单凭狭义AI无法到达这一理想的彼岸,它欠缺所谓的通用人工智能。
广义AI才是理想的有能力灵活适应这个本质上疆域无限的世界,而这恰恰是人类所拥有的,却是机器未触及的能力。世界的开放性意味着在我们家里四处走动的机器人会遇到无限种可能性,碰到壁炉、墙上挂着的艺术画作、路由器、宠物、孩子,家庭成员、陌生人,还可能碰到上周才上市的全新玩具。机器人必须对所有这些事物进行实时推理。每一幅画看起来都不一样,但机器人不可能对每一幅画分别学习,搞明白自己应该做什么,不应该做什么,从而陷入无穷无尽的试错任务之中。
无人驾驶汽车近年来十分火热,最近特斯拉的市值已经超越了丰田,成为全球最大的汽车公司。有人说,这是一个“高光时代”。但是,马库斯指出,就是拥有自动巡航功能的特斯拉,也需要人类司机在驾驶过程中全程聚精会神。在天气状况良好的高速路上,特斯拉的系统还是比较可靠的,但它在人流车辆密集的市区就没那么可靠了。因为在熙熙攘攘的都市道路上,任一给定时刻会出现什么状况,有着无穷无尽的可能性。因此,在理想与现实之间,存在着被称为AI鸿沟的三个“大坑”。
3
第一个大坑是轻信坑。轻信机器的行为会与人类的行为完全相同,然后就不假思索地认为机器拥有和人类一样的某种思维机制,而事实上机器并不具备这样的能力。马库斯将这种心理谬误称为“基本超归因错误”。
超归因错误会威胁到人们的生命。无人驾驶汽车主要局限在高速公路环境中,需要人类司机就位才能保证安全,原因是软件太不靠谱,不敢让人以性命相托。2016年,一位特斯拉车主在安全驾驶数10万千米之后,车辆遇到了预期之外的情景:一辆白色货车横穿高速公路,特斯拉直接钻到货车下面,车主当场毙命。车辆似乎向车主发出几次报警,请他将双手放在方向盘上,但车主似乎心不在焉,没有理会。这场事故背后的道理十分清楚:仅仅因为某些东西在某些时刻貌似拥有智慧,并不意味着它的确如此,更不意味着它能像人类一样处理所有情况。
第二个大坑是虚幻进步坑。误以为解决了简单问题,就相当于在难题上取得进步。IBM对沃森的大肆吹捧,就属于此类。IBM宣称它的AI系统沃森将会在医疗行业掀起一场革命,并称沃森健康的“认知系统能理解、推理学习和互动,并且利用认知计算在近期取得的进步……达到不敢想象的高度。”IBM的目标是解决从药理学、放射学到癌症诊断与治疗中存在的诸多问题,利用沃森去读取医学文献,给出了人类医生可能会遗漏的医疗建议。与此同时,AI领域最卓越的科学家之一杰弗里·欣顿甚至说:“很明显,我们应该停止培养放射科医师。”
然而,到了2017年,MD安德森癌症中心停止了与IBM在肿瘤学方面的合作。据报道,沃森给出医学建议“不安全、不正确”。2016年,位于德国玛堡的罕见病和未确诊疾病中心利用沃森开展的项目,不到两年就被叫停,因为“工作结果无法接受”。当医生将病人的胸痛症状告知沃森系统时,沃森并没有提出心脏病、心绞痛或主动脉撕裂等可能的诊断,而这些即使连一年级的医学生都能提出。
第三个大坑是“鲁棒坑”。鲁棒(Robust)是音译,意为健壮。鲁棒性就是系统的健壮性。它是在异常和危险情况下系统生存的关键。比如,计算机软件在输入错误、磁盘故障、网络过载或有意攻击情况下,能否不死机、不崩溃,就是该软件的鲁棒性。当人们寄厚望于在某些时候能发挥作用的AI解决方案,他们就会假定只要稍加努力,再多点数据,系统就能够在所有时刻发挥作用,但事实并不见得如此。
一辆无人驾驶汽车在安静的道路上保持一条车道向前行驶,是相对简单的事。但如果让其在富有挑战或预期之外的情境中工作,其难度就会大增。问题不在于某辆无人驾驶汽车能在不出事故的情况下跑多少千米,而在于汽车本身的适应能力有多强。在凤凰城经过了数百万千米的测试,表现得无懈可击,非常可靠,并不意味着在孟买的季风天气下不会出问题。将车辆在理想状态情况下的行驶表现与车辆在极端情况下的表现混为一谈,是将整个行业置于生死边缘的重大问题。然而,行业中人却会对极端情况的存在视而不见,甚至连保障车辆性能的方法论都对极端情况不予理会。这就说明了,其鲁棒性没有得到足够的重视。
4
马库斯说,如果想跨越AI鸿沟这个大坑向前走,那么就需要做到三件事:搞清楚AI技术的利害关系;想明白当前的系统为什么解决不了问题;找到新策略。马库斯告诫我们,AI并非魔法,而是一套工程技术和算法,其中每一种技术和方法都存在自身的强项和弱点,适用于解决某些问题,但不能用于解决其他问题。
马库斯并非要唱衰整个AI行业。他希望AI能往好的方向发展,而不是呼吁人们放弃对AI的追求。他不希望AI从世界上消失。马库斯相信,AI能掀起波及整个世界的重大变革,但在AI取得真正的进步之前,许多基本的假设也需要改变。AI前行的最佳方向,是要在人类心智的内在结构中去寻找线索。真正拥有智慧的机器,不必是人类的完美复制品,但任何一个用坦诚眼光审视AI的人都会认为,AI依然有许多需要向人类学习的地方,尤其要向小孩子学习。小孩子在许多方面都远远将机器摔在后面,因为小孩子天生就有吸收并理解新概念的能力。
如果我们希望机器能做到同样的事情,去推理、去理解语言、去理解周遭世界、去有效学习、以与人类相媲美的灵活性去适应新环境,我们就首先需要搞明白人类是如何做到这些的,搞明白人类的大脑究竟要做什么。也许只有这样,面对挑战迎头之上,我们才能获得AI迫切需要的重启契机,打造出深度、可靠、值得信任的AI系统。

我的更多文章

下载客户端阅读体验更佳

APP专享