哥伦比亚大学教授:机器学习胜过人类编程?AI 终极挑战是创造力

哥伦比亚大学工程系的教授、机器创新实验室主任Hod Lipson认为,Alphago战胜人类代表了机器学习得到完美的应用,接下来人工智能和机器人领域的最大挑战是创造具有创造力的机器人,这也是通向自我意识的途径之一。

【文/新智元(微信号:AI_era)编译,译者:胡祥杰】

1、能介绍一下你在哥伦比亚大学创造机器实验室所做的工作吗?

我们做的是生物驱动型的项目。我们努力从生物学中学习如何处理问题,我们关注的焦点是一般情况下,人们认为只有自然可以做到的事情。

生物驱动型的项目指的是从自然中学习,然后使用学习到的东西,尝试去解决最困难的问题。这涉及到所有的领域。这并不是在表面复制自然,它可以在更深层次复制学习过程,比如,学习自然如何使用材料,或者学习自然演进的过程。

我们在做的研究中,我最喜欢的一个主题是:你能不能做出可以自我复制的机器人?自我复制并不是传统上人与机器的那种关系。比如说,大多数的机器都不能自己从受到的损害中恢复,或者说治愈,或是适应。至少到目前为止,机器还不能从自己的经历中进行学习。

我们正在研究,我认为是人工智能和机器人领域最大的挑战,即创造有具有创造能力的机器:机器能创造新的东西,机器能有新的创意。

创造力是AI要攻克的最后几个阵线之一。许多人仍然认为,人类拥有创造事物的能力,所以比机器强。我们正在研究这一问题。

2、怎么看待Alphago战胜李世石?

从某种程度上来说,Alphago是AI一个时代结束的标志。从上世纪50年代开始,人们就在用AI玩棋类游戏,而围棋可能是AI攻克的最后一个棋类游戏。现在,我们可以向着更大和更有挑战性的东西前进,那就是现实生活。比如,电脑仍然很难学会如何在曼哈顿车水马龙的十字路口驾驶。显然,这比围棋要难得多。

目前的AI非常善于决策,通过对大数据进行处理,进行筛选,从而得到最后的决定。比如,获得所有的股票市场数据,然后决定“我该买进,或者抛出?”,或者获得所有摄像头、雷达和无人驾驶车中的数据,然后决定该直走或者转弯。这一切都是关于获取数据然后把这些数据变成决策。

但是另一种的智能是,有新的创意,或者新的需要的时候,从中发散,并创造新的观点,是一种扩展。

这是一种完全不一样的AI,它是探究性的。我们把其称为发散型AI,而不是聚合型的AI。这是我们实验室在努力的东西。

我觉得对于AI来说,最新的挑战是创造力。创造新的想法。这是下一个重要的前线。

3、发散型的AI具体研究些什么?

可以是任何事,比如,设计新的电子电路,或者是设计新的机器人。我们会问诸如“一个AI产品,或者新的机器人跟我们此前见到过的东西有何不同吗?它具有创造力吗?”或者“机器人能绘画吗?它能创作出我们人类喜欢的音乐吗?”此类的问题。

4、为什么机器自我意识对于你和你的工作来说那么重要?

我认为,自我意识是机器人最后的难题。我们都在为此奋斗。

一些从事AI研究的人,会有短期的目标,比如“我们能让机器人下象棋吗,能下围棋吗或者是能开车吗?”

但是从长远来看,如果你展望AI最后的战场,在那你会看见什么?我认为,是创造自我意识。

这几乎是一个哲学上的问题。正如道士一直希望炼出长生不老药一样。但是,我认为,最终,至少对一些人来说,这是智能的最终形式。

几个世纪以来,哲学家、神学家和心理学家都一直在争论:“什么是自我意识?”,我认为机器人专家和AI领域的人可以继续这一讨论,并展开一个不一样的视角。这一视角是更加量化和更加实际的。我们想说的是:“我们并不打算讨论什么是自我意识,实际上,我们要创造自我意识。

如果我们可以做到,我想我们最终会理解什么是自我意识。对我来说,这上一个很大的挑战。对于AI来说, 这也是一个重大的挑战。

创造力是一个很大的挑战,但是比它更难的是自我意识。长久以来,在机器人和AI领域,我们有时会称其为“C”世界,也就是知觉(consciousness)。

5、为什么在你们的网站上没有看到你所描述的世界?

我们不会拿出来说。这有点……这对我们来说这有点像个神话。这不是大多数人会承认他们在寻找的东西。这是一种荣耀。

我们的团队就是那些为此努力的队伍之一,我想,我们正在开始打开自我意识和知觉。我们肯定能做到,但是问题是,我能在有生之年看到吗?这是大多数人都希望知道的问题。

6、AI在自我意识上的进步,在接下来的10年中会如何影响数字工业中的工作?

谈到工业,有两个角度。

一个是简单的自动化。我们已经看到机器人能够跟人一起协作。把机器人和自动化引入工厂将变得越来越简单。过去,你需要有熟练的程序员和昂贵的机器人,以及为机器人定制的工作场所。

理论上讲,你可以买到相对便宜的机器人,或者一个成本低于一个普通人年薪的机器人,然后把机器人和工人放在一起,这就保证了安全问题。你可以像教人一样教机器如何工作。现在,许多这样的限制已经在消失,我们也在工业中看到了这样的现象。这些许多都跟AI有关,我想说,大部分都跟AI有关,但是它跟其它方面比较迅速的发展也有关,比如更便宜、更迅速和更加好的硬件。

工业中的另一个方面,也就是被AI摧毁的方面,就是设计。工业和设计通常是携手并进的。虽然工业对于我们来说更容易看到,但是其背后的设计,也是跟其紧紧相连的。

当AI通过这些新型的创造型AI进入设计领域时,你可以在短时间扩展可以制造的东西,因为AI在设计方面能够利用一些新的生产方式。

7、你在2007年TED的演讲中,曾说:“我认为重要的是我们要抛弃人制造机器的思维,真正地让机器自我演进和学习,就像孩子一样,这也许是我们实现的方式”。十年过去了,你认为我们在朝着这个方向走吗?

它的发展比我想象的要快。在AI领域,有两个学派的观点在政治上和经济上产生了强烈的碰撞。其中一派是自上而下的,逻辑的编程化研究道路,另一种是机器学习派。

机器学习派说,“忘掉程序机器人吧,忘掉程序AI吧,你只需要让机器学习,它自然会从数据中自己找到解决问题的方法。另一派则说:”我们要坐下来,写算法,然后让程序告诉机器人该做什么。”

长久以来,人类编程都比机器学习好得多。你可以让机器学习做一些无关紧要的事。但是设计一些大事,一些重要或者困难的事,你可能会要求助于一名专家,让他或她来编程序。

但是在过去的10年间,也就是从我在TED上发表演讲到现在,机器学习优于人类编程的例子开始不断涌现。

一直以来,人们都在讨论无人驾驶汽车,但是在2012年以前,没人能够写出能够让机器知道路面情况的程序。没有人能做到。但是最后,深度学习算法出现,现在机器能辨认并理解它们看到的东西,在这方面甚至比人类还要优秀。这也是为什么我们会在接下来几年内可以拥有无人驾驶汽车的原因。

我认为机器学习方法得到了完美的应用,并且我们才处在开始阶段。这一过程将会得到加速。

7、假如机器学习最终超越人类的能力,那么我们要达到再高一级的AI,需要面临的困难有哪些?

在过去的一两年间,知觉是得到解决的一个大难题之一。计算机是瞎的,它不能理解“看到”的东西。我们有相机,有快速的计算机,有我们需要的一切东西,但是计算机不能理解它们看到的东西。这是一个大的难题。这也就是说,计算机不能在非确定的开放环境中处理问题,只能在工厂、矿井、农田或者相对静态的场景中工作。但是不能在家中工作、不能驾驶或者在跟人一起外出干活。
现在所有这些难题都被机器学习解决了。我们现在拥有的计算机不仅有“眼睛”,还有“大脑”可以理解看到的东西。这为新的应用打开了许多的大门。我认为这在过去是一个很大的阻碍。

下一个是什么?我认为是创造力。

这就是我为什么一直在这方面努力的原因。我想这是一种能力,不仅是分析和理解看到的事物,还有创造和想象的能力。最终,这是一个通往自我意识的道路。

Hod Lipson 最喜欢的机器人PIX18画的油画。图片来源:singularityhub.com

新智元编译后记

在新智元之前发布的文章中,人工智能权威吴恩达也认为,创造力并非人所独有,是可以被系统传授的。

“Mind as Machine”一书的作者、英国萨塞克斯大学认知与计算科学学院的Margaret A. Boden在她1998年发表的论文“Creativity and artificial intelligence”中表示,创造力是人类智能的基本属性,也是人工智能的一大挑战。2009年,她的观点在“Computer Models of Creativity”这篇论文中更改为,创造力只是正常人类智力的一个方面,并非为世间少数灵长所独有。

当然,Boden在她2015年发表于MIT Technology Review的文章Artificial Creativity中指出,人工智能的自然语言处理能力受限于搞不清楚相关性,这是计算机缺乏语义理解能力所致。

不过,随着神经网络、机器学习算法和其他复杂系统的发展,人工智能接下来要解决的问题,或许就是“创造力”了。

·氧分子网(http://www.yangfenzi.com)延伸阅读:

您可能还喜欢…

2 Responses

  1. 【资源】机器学习和神经网络实践:书籍及博客推介说道:

    前几天我们向大家推荐了自学成为 Data Scientist 在线课程系列,很多人纷纷收藏和分享。今天新智元再针对数学,为大家介绍几本书和相关资料。你或许没有强大的数学基础,你或许都还没完全搞明白机器学习是怎么回事儿,但这些都不重要。还是那句话,现在网络资源那么丰富,只要想学就没有不可能,这就是AI时代极客精神!

    Make Your Own Neural Network (by Tariq Rashid)

    这本书细致地带领读者了解神经网络中所涉及的数学知识,并教读者怎样自己使用 Python 编程。神经网络是深度学习和人工智能的一个关键元素,然而很少人真正明白神经网络是怎么回事。这本指南性书籍将带读者深入浅出地建立对神经网络运作的理解。你不需要知道中学以后的任何数学,书中还有附有对微积分的介绍(如果你把大学的数学都忘了)。这本书的目的就是使尽可能多的人从零认识神经网络,市面上的入门级书籍其实非常稀缺!

    书中的第1部分用大量例子和插图介绍了神经网络的数学思想基础。第2部分你将学习用 Python 制作自己的神经网络,教它识别人类手写的数字,使其达到专业开发者的水平。第3部分将进一步把神经网络的性能提高到业界领先的98%的准确率,仅用简单的想法和代码,就能最终在手机上进行测试。

    另外这本书还有一个对应的 Github 库,里面有所有的辅助资源:
    https://github.com/makeyourownneuralnetwork/makeyourownneuralnetwork/pulls

    Medium:Machine Learning is Fun!(by Adam Geitgey)

    如果你看完上一本书,也跟着动手实践起来了,你肯定也会喜欢接下来要介绍的内容。Machine Learning is Fun!并不是一本真正的书,是一个分为六部分的连载博客(上一次更新是在2016-12-24,大家可以持续关注)。新智元已经介绍过最新的 Part 6,内容有关用深度学习做语音识别。

    这一系列里面运用了很多实际生活中的问题,引导读者去思考其背后的机器学习逻辑。因为作者在博客中插入了大量的图片,让理解很多概念都变得容易起来,真正使人乐在其中。

    在这里,你会学到如何去猜测房价,如果让机器设计游戏,如果识别图片中的人脸,如果像Alexa一样识别语音等等。如果把这个大问题的简单逻辑和设计方法都掌握了,会为思维敞开一扇大学,然后再去系统地学习理论知识更能比先坐在教室里学习基础,要有效得多。

    系列博客地址: https://medium.com/@ageitgey/machine-learning-is-fun-80ea3ec3c471#.tynr6wnca

    Deep Learning(by Ian Goodfellow, Yoshua Bengio, Aaron Courville)

    光看这本书的作者们就知道这是一本重量级、必读的有关深度学习教科书。Goodfellow 现在是 OpenAI 首席科学家,Bengio 和 Courville 是加拿大蒙特利尔大学的明星教授。这本书在亚马逊的售价是72美金,但是其实已经向公众免费公开了所有内容,打开链接你会发现网站上还附上一些练习和教学视频(重量级专家不愧是重量级专家)。和上面两本书不同的是,这本书更系统化的梳理了知识结构,需要读者有一定的数学基础。

    这本教科书介绍了线性代数、概率论、信息论、数值计算和机器学习的相关概念;当前计算机从业者使用的深度学习技术,包括深度前馈网络、正则化、优化算法、卷积网络、序列建模等实用方法论;并且介绍了自然语言处理、语音识别、计算机视觉、在线推荐系统、生物信息学和视频游戏的应用; 最后,以研究者的视角,介绍了线性因子模型、自动编码器、表示学习、结构概率模型、蒙特卡罗方法、分区函数、近似推理和深度生成模型等理论主题。

    地址:http://www.deeplearningbook.org

    其他实用教程

    Tensorflow for Poets
    https://petewarden.com/2016/02/28/tensorflow-for-poets/

    Recurrent Neural Networks for Artists
    http://blog.otoro.net/2017/01/01/recurrent-neural-network-artist/

    Simple Reinforcement Learning with Tensorflow
    https://medium.com/emergent-future/simple-reinforcement-learning-with-tensorflow-part-0-q-learning-with-tables-and-neural-networks-d195264329d0#.rq3koxw0f

  2. 【榜单】10位值得关注的机器学习Quora大咖问答录说道:

    来源:KDnuggets 译者:四叠半

    【新智元导读】这篇文章基于Quora的“机器学习板块被阅读最多的作者”,列举了过去30天里回答被阅读最多的10位作者,数据统计至2017年6月25日。

    HåkonHapnes Strand,数据科学家 – 264,665阅读,206回答

    回答摘选:HåkonHapnes Strand在多大程度上认为在机器学习算法中记住高级公式很重要?

    我不认为记住公式很重要。我甚至觉得可能产生相反效果。

    如果你了解机器学习算法的工作原理,并且是在低级别上真正理解它,而不仅仅是高级直觉,那么你应该可以自己导出公式。在实践中,记公式是基本不需要做的事情,因为你可以查到它。

    记住一个公式可能给你一个错觉,让你以为明白了公式背后的原理。

    Roman Trusov,FAIR 2016 实习生 – 254,241阅读,404回答

    回答摘选:应该花钱买一个好的GPU学习深入学习吗?(我不是指生产层面的运行。)

    如果你是认真想学习DL,那么是的。了解架构或算法与使这些架构或算法正常工作是两个截然不同的事情,获取知识的唯一途径就是自己去实践并分析结果。

    如果你考虑购买多个便宜的GPU来学习如何使用它们,最好不要。如果你的框架支持分布式计算,那还好。如果不是,那么到后面会很痛苦。

    对于现代架构的训练,CPU无法以任何方式代替GPU。我有一个非常好的CPU,需要几个星期的时间来训练用GPU的话一个晚上就训练完网络。消费级的i5(我也不认为多付点钱买i7是个好主意)甚至更慢。

    Zeeshan Zia,计算机视觉与机器学习博士 – 142,140阅读,377回答

    回答摘选:怎样为计算机视觉研究科学家的面试做准备?

    会有一些编程问题,以及有关计算机视觉和机器学习的基本问题,这部分大约占50%。另外50%就根本没有技术问题。通常情况下,如果你自己编程并定期参加会议,那么不需要为这部分做准备。如果真的需要,可以刷几天C ++。

    面试官想知道的两件事情是:(1)你可以作为独立研究员工作,(2)你对软件开发工作的预期是否与职位本身相符。

    Ian Goodfellow,AI研究科学家- 115,921阅读,143回答

    回答摘选:使用GAN生成图像有什么问题或动机?

    你可以使用GAN来:

    生成模拟训练数据和模拟训练环境
    填补缺少的数据
    用半监督学习训练分类器(分类器同时从已标记和未标记的数据中学习…,并且使用GAN的话,还同时从完全虚构的数据中学习)
    做监督学习,其中监督信号表示多个正确答案中的任何一个都可以接受,而不仅为每个训练示例提供一个具体的回答
    用统计生成代替成本高的模拟
    从来自生成模型的后验分布取样
    学习对其他任务有用的嵌入

    Clayton Bingham,Informatics公司数据分析师,神经工程研究员 – 105,861阅读,12回答

    回答摘选:机器学习(除了深入学习)有什么趋势?

    我不知道有什么趋势,但我知道在主流ML之外一个强大的方法,被证明具有很强的灵活性、可解释性和在VLSI / FPGA硬件中相对容易实现的优势。

    Volterra核

    理解Volterra序列如何工作的最简单的方法是,它是一系列数字滤波器,用于预估从输入信号到适当的输出的转换。卷积核(滤波器)的形状,时间延迟和数量组成了必须估计的模型的特征,以便对复杂系统的行为进行准确的预测。

    Xavier Amatriain,曾经是ML研究员,现在在Quora主管Engineering- 97,947阅读,85回答

    回答摘选:什么是训练机器学习模型的最佳实践?

    好的指标:
    应该容易比较不同的模型
    应该尽可能容易理解和解释

    最好是跟踪你关心的每个用户细分的指标(例如新用户,旧用户,非常活跃的用户,区域设置….)

    在测试集上测量你的指标(不是训练,也不是验证)

    Chomba Bupe,开发机器学习算法 – 96,608阅读,460回答

    回答摘选:在分类方法中,可以添加类和训练样本而无需重新训练所有数据的方法,除了K最近邻法还有哪些?

    有一种叫做迁移学习(transfer learning)的方法,几乎可以用任何机器学习算法都不需要重新训练整个系统。例如,可以用一个预训练的网络,在顶部额外添加一个简单分类器,并且只对新的训练样本训练这个分类器,同时保留预训练的权重。这在相关任务的实践中表现良好。

    不过,迁移学习存在局限性,要想让它工作得好,需要确保新的样本具有与原始样本相似的分布。

    Liang Huang,宾夕法尼亚大学计算机科学系PhD(2008)- 92,987阅读,3回答

    回答摘选:在AI深度学习中,你认为谁是Hinton,Lecun和Bengio之后的顶尖研究人员?

    这个问题本身就是错误的。我们都知道,Schmidhuber的贡献与Hinton,Lecun和Bengio的贡献相比,如果不是更重要,起码是同等重要的。

    DL中只有两个关键的idea:
    CNN(Fukushima-LeCun)
    LSTM(Schmidhuber)

    其他一切,包括Hinton和Bengio的工作,相比他们都是次要的。这并不是说他们的工作不重要,他们在推广NN方面是非常重要的,但如果是说诺贝尔奖经常强调的“原创想法”,那么就是LeCun,更早的Fukushima和Schmidhuber。如果有DL的诺贝尔奖,那么应该选这些人。

    Yoshua Bengio,蒙特利尔算法研究实验所负责人,蒙特利尔大学教授- 90,211阅读,112回答

    回答摘选:如何进行机器学习的研究,只从Coursera或edX的MOOC获得知识够吗?

    我不认为MOOC就足够了。你需要认真实践。例如,尝试重现在你感兴趣的一些论文的结果,参加Kaggle竞赛等。然后尝试作为访问学者、实习生或研究生加入学术实验室,与其他学生和研究人员合作进行深度学习的研究。

    Shehroz Khan,ML研究员,多伦多大学Postdoc – 87,791阅读,715回答

    回答摘选:机器学习是难度最大的吗?

    在我念博士期间,有以为中国来的本科生(后来成为了硕士生,现在是博士生),他很轻松就能解决任何一个机器学习问题。他是个天才,我觉得对他来说任何事情都是可能的。我很震惊。

    当你开始(或即将开始)做某件事情时,似乎总是很难。但当你完成了这件事,难度就变得微不足道了。对于数学家来说,ML的博士可能很简单。对于生物学家来说,ML学位可能十分难! 如果你没有足够的技能,背景知识,兴趣,激情以及毅力…任何学科的博士不仅艰难而且不可能实现。对我来说,超出我所在领域的任何程度的知识都是艰难的。特别致敬研究基础科学人——数学,物理,化学,生物学,艺术,人文,心理学,社会学……

发表评论

邮箱地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>