贝叶斯定理:人工智能的进化论?

贝叶斯定理正在变得如此流行,以至于在CBS剧《生活大爆炸》中也出现了它的身影。纽约时报说,贝叶斯统计学家“遍布一切,从物理学到癌症研究,从生态学到心理学”。物理学家提出了量子机器的贝叶斯解释,以及贝叶斯捍卫了弦和多重宇宙理论。哲学家主张作为一个整体的科学可以被视为一个贝叶斯过程,还有Karl Popper普及的方法,贝叶斯能够更精确地区分科学和伪科学。

新智元(微信ID:AI_era)原创,译者:曾天宇 编辑:王嘉俊

来源:Scientific American、Nature

人工智能研究者,包括Google自动驾驶汽车的设计者,使用贝叶斯软件帮助及其识别模式并作出决策。根据一位流行的贝叶斯理论历史写作者Sharon Bertsch McGrayne所说,贝叶斯程序“挑选出电子邮件中的垃圾邮件,评估药物和国土安全风险以及从其他东西中破译DNA。”在网站Edge.org中,物理学家John Mather为贝叶斯机器可能已经足够聪明去“淘汰”人类而着急。
而就在上个月,《Nature》封面论文谈到,三名来自麻省理工学院、纽约大学和多伦多大学的研究者,开发了能像人类一样学习的“写字”系统,其背后的原理就是贝叶斯程序。

一个简单的数学概念为何会产生这么大的激情?研究人员讨论,人类大脑的思考和决策过程,是否如同贝叶斯程序一样?我们知道达尔文用极其简单的模型解释了人类复杂的进化行为,那么贝叶斯定理会成为人类大脑的进化论吗?

什么叫贝叶斯定理? 

贝叶斯定理的数学公式非常简单:P(B|E) = P(B) x P(E|B) / P(E)。其中P表示概率,P(B)是B为真的概率,而P(E)是E为真的概率。P(B|E)的意思是假设E为真时B的概率,P(E|B)则是假设B为真时E的概率。

注:如果不好理解,把它变成 P(E) x P(B|E) = P(B) x P(E|B) 就好理解了。
医学检查经常被用来说明这个公式。假设接受癌症的检查,癌症在同年龄的人中的发病率为1%。在真实的世界中,检查很少完全可靠。因此假设检查可靠性是99%,也就是说,100个癌症患者中有99个检查结果阳性,100个健康人中有99个检查结果阴性。这仍然是个不错的检查。

如果结果阳性,有多大可能得了癌症?

现在贝叶斯定理显示出它的力量了。大多数人认为答案是99%,或者很接近这个数字。这正是检查的可靠性,对吧?但是由贝叶斯定理得出的正确答案只有50%。

将数据代入贝叶斯等式的右边以找到原因。P(B)是0.01,得癌症而且结果阳性的概率,也就是P(E|B),现在是0.99。因此P(B)乘以P(E|B)等于0.01乘以0.99,即0.0099。这是得到真阳性结果,显示阳性结果中得癌症的概率。

分母P(E)是什么?这就是事情有意思的地方。P(E)是无论是否得癌症时结果阳性的概率,换句话说,它包括假阳性和真阳性。

为了计算假阳性的概率,你用假阳性率,也就是1%,或者0.01,乘以没有癌症的人群百分比0.99。结果是0.0099。是的,99%准确率的检查得到的假阳性和真阳性一样多。

让我们完成计算。为得到P(E),将真阳性和假阳性相加,总和为0.0198,然后除以0.0099,得到0.5。所以再说一次,检查结果阳性时你得癌症的概率P(B|E)是50%。

如果再检查一次,可以极大地减少不确定性,因为你得癌症的概率P(B)现在是50%,而不是1%。如果第二次结果仍然是阳性,贝叶斯定理告诉你得癌症的概率现在是99%。

像这个例子显示的这样,迭代贝叶斯定理可以得到非常精确的信息。这也让贝叶斯定理能够在基于概率的预测时,有非常好的效果。

《Nature》封面论文

这篇发表于 12 月 11 日的论文提出了一个概念:人工智能可以像人类一样学习了。

它的摘要中写着:人们学习新的概念,往往能从单一的案例中学习,而机器学习则需要成千上万的数据才能达到类似的精度。人们也可以用更丰富的方式学习概念,例如在行动、想象和解释层面。我们提出了一个计算模型,捕捉到人类的学习能力,为基于字母的手写体创造出直观的概念。在这模型背后,研究者使用了简单的贝叶斯程序完成。在这个具有挑战性的分类任务中,贝叶斯程序战胜了深度学习方法,达到了人类的水平。这个模型也通过了图灵测试。

北邮模式识别实验室的周国睿解释了背后的贝叶斯模型:整体思想是用一个贝叶斯模型来描述人写字的概念, 其实就是模拟了人写字的过程, 并且模型已知字是由笔画组成这个概念, 生成一个字的过程就是寻找笔画, 并且用笔画组成这个字。

整个过程分为两大步:生成一个字的结构(type) :笔画集合、笔画间的关系。生成一个字的形象(token) :通过按概率采样每一个笔画的初始点以及轨迹生成最后的图像。

这个模型背后的原理是:迭代贝叶斯定理可以得到非常精确的信息。

大脑认知是一种贝叶斯程序吗?

John Horgan 是科学美国人的高级专栏作家,他在参加纽约大学一场为期两天的会议,主题是“大脑是贝叶斯式的吗?”。John Horgan 记录了现场发言。

以下是记录全文:

这场研讨会中更多的是提出了这些好问题,而非去解决它们。在这篇文章中,我将简要介绍会议中前两位发言者的观点,他们对于贝叶斯大脑假说分别持支持和反对意见。

贝叶斯大脑说支持方

首先发言的是来自麻省理工大学大脑和认知科学项目的Joshua Tenenbaum,他尝试对人类意识进行“反向工程”,将其表现复制到电脑上。当他介绍他的网站(上面有关于贝叶斯大脑和相关主题的论文)时说道“将机器学习算法接近人类学习能够创造出更厉害的人工智能系统,同时为理解人类认知提供更有效的理论范式。”

在研讨会上,Tenenbaum提醒我们即使在婴儿时期我们就已经非常聪明了。如果我们看到砖块堆成的塔,我们会马上知道它是稳定的还是容易倒塌的。我们可以快速辨认面孔并且根据表情猜出其他人的情绪。在不同情境中,我们可以快速对部分事实进行概括,帮助我们更好的理解新的信息和情况。

贝叶斯程序能够比其他人工智能方法更好的实现这些甚至无数个其他认知特性。贝叶斯算法在复制“如何从较少事实中得出大量信息”方面表现地尤其出色,即从少量模糊数据中收集信息。

在研讨会结束不久后,纽约时报称赞Tenenbaum和另外两名同事在贝叶斯程序方面的研究是“与人类能力相比肩的”。这个程序能够从许多不同字母中区分出手写的符号,包括希腊语和梵文。它生成的新符号还可以通过“视觉图灵测试”的检验。人类在分辨某个符号是人写的还是贝叶斯程序写的时候感到有难度。

Tenenbaum和同事们在Science中表示他们的模型“获得”了人类“操作”、“想象”、“解释”和“创造性概括”的能力。这个程序的表现远超于其他非贝叶斯算法,包括广受追捧的“深度学习”方法,它仅适用于在筛选大量数据后获取知识。

在与《时代》科技记者John Markoff的采访中,Tenenbaum强调了其研究与人类认知的关联:“机器学习领域的所有这些成就,让我们惊奇的发现大量数据和高性能计算机为我们带来了无限可能……但是当你看到小孩子时,也会惊讶于他们是如何从很少的信息中进行学习的。一些是基于先前的知识,而另外一些则来自大脑。”

贝叶斯大脑说反对方

在纽约大学赞美贝叶斯程序时,Tenenbaum听上去就像是一个自豪的家长。他只在主持人Chalmers多次提醒他的发言超时后,才离开了讲坛。Tenenbaum适当调整了一下他的激情。在坚持贝叶斯程序在模型认知上的优越性同时,他承认这个算法可能“不太充分”并且需要与其他方法相互补。

但是,根据第二位发言人,Jeffrey Bowers的观点,贝叶斯模型除了不充分以外,也可能是不必要的。不像Tenenbaum那样激动,Bowers在发言中看上去有些忧愁,好像不愿意听到什么坏消息似的。

在我前面的文章中,我说过贝叶斯理论让我想起了进化论,因为它们都同时为我们带来了无稽之谈和深刻见解。布里斯托尔大学的心理学家,Bowers也发表了类似的观点。

他的演讲陈述了他在2012年共著论文,《贝叶斯理论在心理学和神经科学中的“正是如此”理论》(Bayesian just-so stories in psychology and neuroscience)中的观点。在这里,他引用了生物学家Stephen Jay Gould关于一些肤浅进化论解释的知名评价,Gould将这些生物特性的进化论解释比作“正是如此”的故事,它们都是一些关于豹子是如何长出斑点、骆驼为什么会有驼峰的童话故事。

同样的,Bowers认为只需要对先前假设和输入内容略加调整,贝叶斯模型几乎可以复制任何认知任务。它们是如此灵活,可以避免一切错误,正如进化心理学对人类特性的解释一样。

Bowers提到,如果有什么需要注意的,就是将贝叶斯理论和达尔文进化论相提并论是对后者的不公平。因为尽管有这么多问题,进化心理学还是为我们的不理性提供了一个合理的解释:它可能源于我们的意识需求与基因繁衍冲动之间的冲突,或者来自于现代社会和原始社会的差异。

Bowers认为进化论者的观点与贝叶斯理论中大脑采取高效率方式进行运作的观点是相冲突的。将我们的大脑从生物特性进化成型的自然选择,应该是把它设计得“够用”,而不是最优。

其他信息处理模型,如神经网络,也可以重复贝叶斯模型的结果。而且,与贝叶斯理论观点相反的是,神经科学对于神经元是采用贝叶斯方式进行信息加工的观点仅有很少或者没有支持证据。

Bowers最终以一种讽刺的总结结束了发言。他认为,关于贝叶斯大脑假说的贝叶斯分析,恰恰揭示了这个假说有多么脆弱,以及贝叶斯学派的研究者们多么容易受到确认偏差的影响。

正如我在前文中所讲,贝叶斯理论意味着直到你严谨地,考虑了关于你证据的所有可能解释之后,你的假设才能够被认为是可信的。Bowers表示,贝叶斯大脑说的狂热者们常常无暇注意到这点。

谁对谁错?

所以谁最终取得了贝叶斯大脑辩论赛的胜利?我并不想事情变得如此容易预料,但是我必须给 Bowers 这位怀疑主义者,一票。我对过去几十年脑及意识研究的了解使得我对于所谓的突破有着很强的偏见和怀疑。

而且贝叶斯大脑假说可以被归结为一个可疑的三段论:我们的大脑在一些任务上表现出色。贝叶斯程序在类似的任务上表现出色。因此我们的大脑采用贝叶斯算法。

很明显这个逻辑有问题。游隼很擅长飞翔,F15喷气机也很擅长。但没有人会因此就认为游隼一定使用了喷射推进,因为连傻瓜都能明白游隼的机制和喷射推进完全无关。只是因为我们认知的机制不容易被看见,所以我们大脑和贝叶斯机器之间的类比不是那么明显的犯傻。

我在上一篇文章的结尾中引用了我最近看到的一句话,是Edgar Allen Poe对贝叶斯式推论危险性的警示。在准备这篇文章时,我恰巧发现了另外一段很合适的话。

这段话回应了一位贝叶斯大脑说支持者的关键假设,即我们在做出选择和追求目标时表现得很理智。Poe抱怨道许多理论思想家总是过多地将他们的假设基于意志应该怎么做,而不是意志做了什么。如果将“上帝”换成“自然选择”的话,Poe的这段话将非常适用于纽约大学的这次研讨会:

“这些进行理性思维或逻辑推理的人,与那些对事物从事观察和理解的人不一样,他们尽力去想象神的意图——用自己的目的来支配上帝。他们探测过一番上帝的意图后,觉得弄懂了,便根据这些意图建立起自己那无数的思想体系……以人类经常或偶尔从事的事情为基础,对人的行为进行分类(如果必须分类的话),要比以我们自认为上帝要人做的事情为基础进行分类,聪明得多,也可靠得多。”

毫无疑问, Allen Poe 的粉丝会认出来这段话出自《反常之魔》,书中夸张的描写了我们可以变得多么失去理智。如果你感觉到一种冲动驱使你跳入贝叶斯大脑说的坑中,请看看(或再看一遍) Allen Poe 的这本书。

参考资料

1.Scientific American:Bayes’s Theorem: What’s the Big Deal?(感谢数艺智训翻译,已获授权)

2.Scientific American:Are Brains Bayesian?

3.Nature:Human-level concept learning through probabilistic program induction

4.新智元:【科学杂志】贝叶斯模型颠覆深度学习?概念大于实际

曾天宇,华南师范大学心理学硕士,对认知神经科学感兴趣,研究方向为语言理解、学习。

·氧分子网(http://www.yangfenzi.com)延伸阅读:

互联网+人:人本计算学的兴起

特斯拉马斯克:人工智能危险超核弹

小冰复活,人工智能普及时代来临?

陈根:“新紧箍”将让人工智能成为孙大圣

清华沈阳:未来媒体大趋势——“无人机+”将渗透全行业

央视记者李斯璇专访苹果CEO库克,苹果手表续航时间遭吐槽

您可能还喜欢…

1 Response

  1. 来源:《中国计算机学会通讯》2018年第1期《专栏》

    近来“人工智能”很热,关于“强人工智能”的一些讨论也见诸于网媒报端。作为一名人工智能研究者,在此谈点粗浅的看法仅供大家批评。

    关于人工智能,长期存在两种不同的目标或者理念。一种是希望借鉴人类的智能行为,研制出更好的工具以减轻人类智力劳动,一般称为“弱人工智能”,类似于“高级仿生学”。另一种是希望研制出达到甚至超越人类智慧水平的人造物,具有心智和意识、能根据自己的意图开展行动,一般称为“强人工智能”,实则可谓“人造智能”。

    人工智能技术现在所取得的进展和成功,是缘于“弱人工智能”而不是“强人工智能”的研究。正如国际人工智能联合会前主席、牛津大学计算机系主任迈克尔·伍德里奇(Michael Wooldrige)教授在2016年CCF-GAIR大会¹报告中所说:强人工智能“几乎没有进展”,甚至“几乎没有严肃的活动”(“little progress, little serious activity”)。事实上,人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。那么,这是不是因为强人工智能“太难”,所以大家“退而求其次”呢?不然。事实上,绝大多数人工智能研究者认为,不能做、不该做!

    牛津大学迈克尔·伍德里奇教授

    首先,从技术上来说,主流人工智能学界的努力从来就不是朝向强人工智能,现有技术的发展也不会自动地使强人工智能成为可能。

    不妨看看现在人工智能技术所取得的成功。在图像识别、语音识别方面,机器已经达到甚至超过了普通人类的水平;在机器翻译方面,便携的实时翻译器已成为现实;在自动推理方面,机器很早就能进行定理自动证明;在棋类游戏方面,机器已经打败了最顶尖的人类棋手……可以看出,上述成功有一个共同的特点:它们都是在考虑某种特定类型的智能行为,而不是“完全智能”行为²。一方面,聚焦在特定类型的智能行为上,才使得任务成为可能而非空谈³;另一方面,如果目标是制造“工具”,那么考虑特定类型的智能行为就已足够,自主心智、独立意识、甚至情感⁴之类的东西,根本无须考虑。打个未必恰当的比方,如果人们的目标是造个工具砸东西,那么造出锤子来就好了,无须考虑让锤子有心智、意识,也不必考虑是否要让锤子自己感觉到“疼”。事实上,人工智能研究活跃的子领域,都是与制造智能“工具”直接相关的;而对“强人工智能”必不可少、却与“工具”不太相关的内容,如自主心智、独立意识、机器情感之类,罕有严肃的研究。所以,现有技术即便发展再快、发展再好,也不会直接使得强人工智能成为可能。

    第二,即便想研究强人工智能,也不知道路在何方。

    有一种说法,认为如果能够模拟出“人脑”,把其中的神经元、神经突触等全部同规模地仿制出来,那么强人工智能就会自然产生。然而,这种说法从来没有得到过一点点证明,严格说来甚至不能称其为“猜想”,因为猜想也应该有一些即便不够完备但尚能显示可能性的证据,例如通过仿制简单细胞,做出了单细胞智能生物。实际上,我们完全有更强烈的理由认为,即便能精确地观察和仿制出神经细胞的行为,也无法还原产生出智能行为。正如国际人工智能终身成就奖得主、多伦多大学赫克托·莱韦斯克(Hector J. Levesque)教授在他2017年的新著⁵中所说,即便在最理想的情况下,神经科学家也仅是能获得“目标代码”而已,没有理由认为获得了目标代码就能还原出源代码,因为这样的“反向工程”即便对软件程序来说也几乎是不可能的,更何况神经细胞内部还存在“分布式表示”⁶。

    第三,即便强人工智能是可能的,也不应该去研究它。

    任何一个科学研究领域或许都存在一些不该去触碰的东西。例如克隆人是被主流生命科学界所禁止的。强人工智能的造物将具有自主心智、独立意识,那么,它凭什么能“甘心”为人类服务、被人类“奴役”?有人把阿西莫夫的“机器人三定律”⁷奉为圭臬,但事实上这是行不通的。且不论三定律自身的矛盾和漏洞⁸,凭什么以为有自主心智和独立意识,且智能全面达到甚至超越人类水平的机器,就不会把这些约束改掉呢?即便它是善意的,人类又凭什么认为它会同意比它“愚蠢”的人类的判断?例如它会不会以为把人类全部关进监狱就可以避免人类互相残杀,这才是对人类整体最好的?至于说,到时候人类如果觉得危险了,可以把机器的电源断开……这只是开个玩笑吧,真到那个时候,机器恐怕早就能采用其他的方式摄入能源了。总之,强人工智能出现的那一天,恐怕真的就是人类面临最大生存危机的时候。所以,对严肃的人工智能研究者来说,如果真的相信自己的努力会产生结果,那就不该去触碰强人工智能。

    作者介绍

    周志华

    CCF会士、常务理事、人工智能与模式识别专委主任。

    南京大学教授、计算机软件新技术国家重点实验室常务副主任。ACM/AAAS/AAAI/IEEE/IAPR Fellow,欧洲科学院外籍院士。

    研究方向:人工智能、机器学习、数据挖掘等

    脚注

    1、全球人工智能与机器人峰会,是由中国计算机学会(CCF)主办,雷锋网承办的。此会于2016年8月12~13日在深圳举办。

    2、人类始终在不断努力制造出在某个特定方面超越人类自身能力的工具,例如潜艇比人游得深、火箭比人飞得高,但似乎罕有人努力制造既是潜艇又是火箭的工具。类似地,人工智能研究也是在努力制造出在某种智能行为方面超越人类自身的工具。

    3、事实上,“图灵测试”所考虑的也仅是机器能否“思考”(thinking),而不是强人工智能语境下的“完全智能”。

    4、人工智能中有关于“情感计算”的研究,但并非是研究如何让人造物“拥有情感”。

    5、《Common Sense, the Turing Test, and the Quest for Real AI》

    6、并非由单一神经细胞对应单一功能,而是诸多神经细胞共同发生作用。

    7、一、机器人不得伤害人,也不得见到人受伤害而袖手旁观;二、机器人应服从人的一切命令,但不得违反第一定律;三、机器人应保护自身的安全,但不得违反第一、第二定律。

    8、由于发现三定律有漏洞,阿西莫夫后来补充了第零定律:机器人不得伤害人类整体,或因不作为而使人类整体受到伤害。

发表评论

邮箱地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>