前不久,微软新上线了一个在线对话机器人。强大的机器学习能力,使得这个系统在不到一天的时间里,就学会了种种脏话、恶心话乃至政治不正确的言论。
几天前,《连线》发表了一篇封面文章,标题叫做“Soon We Won't Program Computers, We'll Train Them Like Dogs”,看上去耸人听闻。程序猿都out了。要做系统,可以直接招呼机器学习大数据了。
这里面当然有学术问题、技术问题。机器学习不是狗皮膏药,如果模型含有本质缺陷和先天局限,大数据是不可能补救的,但是这个茬儿我们先按下不表,以后有机会做专门讨论的。我们先来看看法律和监管问题:如果用机器学习武装起来的AI系统犯浑了,板子该打到谁的身上?AI感冒,谁吃药?
众所周知,一个用机器学习武装起来的AI系统,有确定的部分和不确定的部分。确定的部分是“模型”或者“引擎”,不确定的部分是“参数”。参数要通过机器学习过程,把不确定变成确定。这个机器学习的过程,可以是“引擎”的制造者关起门来自己学习,比如像刚刚战胜了李世石的AlphaGo,当然也完全可以有五花八门的各种其他组合,比如:
——引擎的制造者和使用者是分离的
——在引擎的制造者和使用者中间,可能插入了
几天前,《连线》发表了一篇封面文章,标题叫做“Soon We Won't Program Computers, We'll Train Them Like Dogs”,看上去耸人听闻。程序猿都out了。要做系统,可以直接招呼机器学习大数据了。
这里面当然有学术问题、技术问题。机器学习不是狗皮膏药,如果模型含有本质缺陷和先天局限,大数据是不可能补救的,但是这个茬儿我们先按下不表,以后有机会做专门讨论的。我们先来看看法律和监管问题:如果用机器学习武装起来的AI系统犯浑了,板子该打到谁的身上?AI感冒,谁吃药?
众所周知,一个用机器学习武装起来的AI系统,有确定的部分和不确定的部分。确定的部分是“模型”或者“引擎”,不确定的部分是“参数”。参数要通过机器学习过程,把不确定变成确定。这个机器学习的过程,可以是“引擎”的制造者关起门来自己学习,比如像刚刚战胜了李世石的AlphaGo,当然也完全可以有五花八门的各种其他组合,比如:
——引擎的制造者和使用者是分离的
——在引擎的制造者和使用者中间,可能插入了
