人工智能可能是人类最伟大的发明 也可能终结人类文明
在北京举行的GMIC大会上,著名科学家霍金通过视频的方式进行了现场演讲。在演讲中,霍金提出要谨慎使用人工智能,否则,人类有可能被取代。
人工智能或可以有自我意志
霍金说,他所见证的最深刻的社会变化,同时也是对人类影响与日俱增的变化,就是人工智能的崛起。他认为,强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。人工智能的发展是好是坏仍不确定,但人类应该竭尽所能,确保其未来发展对人类和环境有利。
霍金认为,文明所提产生的一切都是人类智能的产物,他相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但现在无法知道人类将会无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在人工智能从原始形态不断发展,并被证明非常有用的同时,霍金也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,会以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。未来,人工智能可以发展出自我意志,一个与人类冲突的意志。
2015年1月份,霍金和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。
人工智能失控的风险
现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。
长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以
在北京举行的GMIC大会上,著名科学家霍金通过视频的方式进行了现场演讲。在演讲中,霍金提出要谨慎使用人工智能,否则,人类有可能被取代。
人工智能或可以有自我意志
霍金说,他所见证的最深刻的社会变化,同时也是对人类影响与日俱增的变化,就是人工智能的崛起。他认为,强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。人工智能的发展是好是坏仍不确定,但人类应该竭尽所能,确保其未来发展对人类和环境有利。
霍金认为,文明所提产生的一切都是人类智能的产物,他相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但现在无法知道人类将会无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在人工智能从原始形态不断发展,并被证明非常有用的同时,霍金也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,会以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。未来,人工智能可以发展出自我意志,一个与人类冲突的意志。
2015年1月份,霍金和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。
人工智能失控的风险
现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。
长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以
