我在大学做设计时,接触过自然语言理解,我很清楚这个产业发展过程。当我们用奔腾机处理人工智能问题时,很显然会陷入对因果分析的桎梏中。在计算能力局限下,人类必须要运用算法的力量,试图攻破人工智能。同理,当你阅读量不足时,你也是在试图运用你强悍的悟性,去成就辉煌。事实上,这些都是狗屎,没人是天才,除了阿尔法狗。
谷歌的电子图书馆计划,对自然语言理解发展有里程碑作用。谷歌的语料库,是世界最顶级。首先,谷歌有世界最庞大的电子图书馆;其次,谷歌有搜索引擎优势,具有庞大的自然语言语料库。在这种数据基础上,谷歌发展人工智能,并不是因果关系着手,而是从相关性。大数据,意味着全数据集。大数据分析不关心错误,关心的是相关性问题,通过文本之间的相关性寻找概率。
一篇文下来,文本的上下文关系是决定歧义分析的关键。如果,你只是读一篇文,缺乏一本书的上下文关系理解,很多情况下也读不懂某些晦涩的暗语。如果,你只阅读一本书,也很难理解书中某些晦涩的用法,需要到其他书本中学习。这就导致,精确度提升的唯一方法,就是巨大阅读后形成的相关性。事实上,人脑的认知标识系统,也是如此运作的。大脑先形成概念,概念之间形成相关性,是相关性联络起庞大的认知系统。因此,准确的认知,必须要建立在天文数字知识图谱关系中形成的相关性分析。在计算能力不足时,人们会寻找因果,忽视了人脑智能形成基础在相关。
井底之蛙,就表现在计算能力很差时,天真的认为自己的因果理解,凭直觉是正确的。由于,知识结构有限,在狭窄的知识图谱下,你无论如何分析,都不可能看清真实的知识相关性,因此,逻辑分析下因果关系很难精准。这个道理,就像是,我拿着大量法律文本,试图通过算法解决人工智能理解问题,根本就不可
一篇文下来,文本的上下文关系是决定歧义分析的关键。如果,你只是读一篇文,缺乏一本书的上下文关系理解,很多情况下也读不懂某些晦涩的暗语。如果,你只阅读一本书,也很难理解书中某些晦涩的用法,需要到其他书本中学习。这就导致,精确度提升的唯一方法,就是巨大阅读后形成的相关性。事实上,人脑的认知标识系统,也是如此运作的。大脑先形成概念,概念之间形成相关性,是相关性联络起庞大的认知系统。因此,准确的认知,必须要建立在天文数字知识图谱关系中形成的相关性分析。在计算能力不足时,人们会寻找因果,忽视了人脑智能形成基础在相关。
井底之蛙,就表现在计算能力很差时,天真的认为自己的因果理解,凭直觉是正确的。由于,知识结构有限,在狭窄的知识图谱下,你无论如何分析,都不可能看清真实的知识相关性,因此,逻辑分析下因果关系很难精准。这个道理,就像是,我拿着大量法律文本,试图通过算法解决人工智能理解问题,根本就不可
