质疑AI泡沫:当我们谈论机器学习时,我们究竟在说些什么

当下“机器学习”或者说“人工智能”过热,虽然在所难免,但作者指出,媒体、投资人尤其应该具有怀疑的精神,任何声明都需要有证据支撑。如今人工智能仍处于发展早期,有些常用数据库甚至包含1989年的信息。作者还提醒,人工智能并不能改变经营的根本,任何智能产品,我们都应该想清楚,“智能”是一个附加属性,还是从本质上改变了这件产品。为了产业更好发展,人工智能从业者应当加强普及技术现状。

质疑AI泡沫:当我们谈论机器学习时,我们究竟在说些什么

(文/ Stephen Merity)当互联网热潮兴起的时候,任何一家公司在前面加上“e”或者后面加上“.com”,估值就会大增。世人都看重了互联网的潜力,而有些时候这种潜力给一些人带来了过高乃至不切实际的期望。纵使期望有可能实现,也很少有公司能汇聚人才和远见将一个完善的互联网商业模式落实。

自此之后,互联网经济泡沫兴起,随后又破灭。我们也见证了互联网的潜力得到充分发挥,改变了人们生活和沟通的方式。很多可能性都在几年后成了现实,而其中一些情况哪怕是最有远见的观察家也没有料到的。互联网泡沫破灭后,虽然没有互联网技术造成致命影响,但不可否认让世界局势变得更加复杂。

AI尚处于发展期

而在人工智能领域,现在可以肯定泡沫要大于现实。这里讨论的“人工智能”采用最普遍意义上的意思,就是媒体上出现的那些:人工智能就是任何比我们预期的更加智能的系统。这样既考虑到专业人士的意见(根据专业定义,AI/ML应用已经称不上智能),同时也纳入了非专业人士的看法,比如一个利用基本统计学原理的应用程序也可能会被报道成显得智能。

就像互联网经济泡沫出现前的互联网技术一样,人工智能也尚处于初级发展阶段。这样说并非指AI缺乏潜力,我的意思是有些人的期待太高了。这自然会导致跟之前类似的情况,只不过把“e”、“.com”换成了“AI”。而且,就跟当年的互联网经济泡沫一样,如今也很少有公司或团队拥有那些实现他们期望的人才和远见。

AI显然比互联网技术更能激发人的想象力,这在某种程度上也导致一些非专业的评论家对AI的未来作出过激的预测。而专业评论家反对这些预测的言论,在公众看来重要性是一样的。这并非指公众盲从权威,而是我们现在缺乏证据。专家提出的论点是有道理的,但实际情况却是他们拿不出证据支撑起论点。

科幻小说里描写的情景,远比现实有趣,世人也当然会受前者吸引,这是一个根本但却不得不接受的现实。就像医疗企业宣称实现重大进展一样,对人工智能我们也应当时刻持有一定的怀疑。AI/ML/NLP/CV领域的研究者可能会对此感到痛苦,不过对他们而言,安全没有必要夸大研究,因为现实已经足够刺激。

谁也不能阻止人持有远大梦想,但将AI泡沫吹大并非是好事。

媒体、投资人与创业者的尴尬

为什么我们会处于这种情景呢?简单说,是人都喜欢故事,而且故事越有意思,人就会愈加关注,也越有可能参与进去。

在AI领域,企业家、媒体和投资人之间,这种关系变得更加极端。吸引媒体和投资人的方法之一便是夸大事实。不仅如此,媒体自身还有在此之上进一步夸大事实以吸引读者的动机。因此,什么都加上“AI”这种潮流也与媒体报道脱离不了关系。

最让我担忧的是哪一点呢?我从朋友那里得到授权,公开我们的一段对话。

有媒体要报道一家初创公司,其目标读者是AI天使投资人。而我朋友的产品①眼下没有任何AI性能,②至少目前还没有为产品增加AI性能的计划。我朋友告诉我:

“很遗憾,AI就是那家媒体想要写和报道的东西,记者坚持只有加了AI才能让故事“不无聊”。我一开始根本没提AI,但后来我出于无奈只能聊相关话题,对话才进行得下去。近期内我都不认为我们有办法改变他们的主意。”

上面说的可能是一个极端的例子,把完全跟AI无关的产品和AI关联到一起。但即使产品跟AI有关,同样的逻辑也会发生,不管是有意还是无意,记者都可能夸大AI在产品中的作用。同样的情况也出现在投资人的身上。

学术界对科研成果的评价有明确的标准(而且都还有人认为这些标准不够严谨)——媒体和投资人在报道或者投资时,应该以更高的标准衡量提供给他们的东西。

怀疑的精神

我很喜欢的科技记者Jack Clark在Twitter上的签名是 “the world’s only neural net reporter”,他在报道时一定会参考文献并且要对方拿出证据。

当然,我们不可能要求每个人都这么做,但有些基本问题还是可以问的。

“公开你模型的失败案例是避免追捧的一种方式。”
—— Kevin Murphy ICML 2015

没有AI系统会适用于任何情景。如果有研究者告诉你他们建立了一个超厉害的全能模型,要么他们不是一般的幸运,要么他们就是在说谎。就算他们的模型具有一定的可扩展性,但根据信息理论,一些根本的局限是无法避免的。

·需要多少数据
·是不是无监督的(需不需要带标记的数据)
·系统能否应对不存在的词汇,比如“我朋友Rudinyard对我刻薄”,很多AI系统都无法回答“谁对我刻薄?”因为词汇表里并没有Rudinyard这个词。
·随着输入的增加,系统的准确率会降低多少?
·系统有多稳定?

现实世界 ≠ 数据库

能真正代表现实世界的数据库目前数量极少。原因有很多,其中之一是我们创建的数据库通常只是对现存AI系统功能的微小扩展。就好比学校给学生的试卷,也极少反映现实世界的实际情况。我们用于训练AI系统的数据也是一样的。

你或许会问,问什么不提供给机器反映现实世界的数据(假设你真能收集得到)。理论上,人类通过测试或实验作为发现新的东西,通常事先都有假说预期的结果,然后将两者相比看之间的差距。如果知道这个任务系统肯定会失败,做这件事情根本就没有意义。

因此,系统在处理某个数据库时性能良好,并不意味着在现实场景中也能得到同样的结果。就算是不怎么样的自动驾驶模型,如果数据好并且标准简单,也有可能在测试中得出超过90分的成绩。真正的问题是剩下那百分之几,比如在高速路上路况复杂的情况下,事关人命,系统准确率再高也没有任何意义。但如果系统出错后果并不严重,或者人能在系统出错时加入管理,那么AI系统当然具有正面意义。

此外,很多数据库都仅限于特定领域。比如说,自然语言处理中的一个标准数据库Penn Treebank,里面主要是1989年的《华尔街日报》。我再重复一遍:1989年。几十年已经过去,语言也会发生变化,现今的语料库会大不同于以前。不仅如此,《华尔街日报》刊登的主要是金融文章,在Penn Treebank得分极高的系统,在另外的数据库表现就惨不忍睹。

再来一个问题是,系统表现的基准是什么?对有些简单的任务,有些简单得超出你想象般的方法就能在绝大部分时候得出很高的准确率。也正因如此,在图像识别任务中,使用包含人类基准、新建数据库的简单算法,回答正确率可能超过专门设计来识别图像的复杂系统,仅仅是因为后者的训练数据没有包含人类基准。

任何没有发表同行评议论文的重大技术突破声明都值得怀疑。

“单独做研究,质量会下降,这就是为什么说军方研究烂。”——Yann LeCun ICML 2015

人工智能领域发展速度之快,从业者都应该尽最大努力与时俱进。一个无名团队突然拿出一个超强系统的可能性当然不高,但绝对不能说肯定没有。但这也同时说明,这个系统还没有经过学术界的同行评议——不过,这也是很正常的,有很多有用的人工智能系统可能都不会在会议上发表论文——但这一点你需要注意。

重复一遍:

·任何结果都需要证据支撑;
·如果模型成功实现,恭喜你,但没有经过评估是不行的——我们不知道这个系统应该表现得有多好(基准是什么),哪些情况下可能出错,或者出错频率有多高。

AI并不会改变经营的根本

如果你商业运营情况糟糕,使用人工系统也不会改善问题。对此,一个很好解决的问题是,如果用免费的人力代替AI系统,结果是否会有提升。要知道,在现实世界做任何事情,要达到人类水平,都是一件极其困难的事情。

此外,我们还可以问自己,使用了AI系统仅仅是增值还是从根本上带来了革新。很多“智能产品”仅仅是加了个AI,让自己对消费者或投资人更有吸引力。当然,这种情况下,增添的智能性能也是有用的,但我们需要判断清楚这个增添的智能性能是否从根本上起到了改变。

如果免费的人力拯救不了你的商业运作模式,人工智能系统并不能帮你解决问题。

结论

AI是一个极具潜力,尚处于发展初期的领域,同时里面也存在着大量的未解之谜和不确定的地方。也正因此,这些谜和不确定在一定程度上让AI泡沫满天飞。

正如深度学习库Keras的建立者Francois Chollet所说,AI从业者应该把普及深度学习技术当成首要任务。这种普及不止是在学术界和产业界,也包括媒体、投资人和广大公众。

我们应当对抗这股夸大AI的趋势,从上面的几点做起。

【来源:merity.com 编译:闻菲 新智元(微信号:AI_era)】

氧分子网(www.yangfenzi.com)是关注互联网生态圈的科技新媒体

·氧分子网(http://www.yangfenzi.com)延伸阅读:

➤ 机器学习分析 47 万微信群,发现的 9 大规律

➤ Facebook首次公开内部机器学习平台,启动AI帝国

➤ 变革性的技术背后:机器学习的潜力与陷阱

➤ 深度学习会让机器学习工程师失业吗?

➤ 谷歌宣告“云1.0 时代”终结,机器学习会让它称霸智能云市场?

➤ 机器学习两极化引发杠铃效应,硅谷投资人指出初创企业三条路

➤ 哥伦比亚大学教授:机器学习胜过人类编程?AI 终极挑战是创造力

您可能还喜欢…

2 Responses

  1. 覃光伟-股权基金:汽车、影视、健康说道:

    这是一个浮躁的新产业,在技术仅仅是硬件与软件的整合就称为AI的太多,我们不要被媒体报道所迷惑!

  2. 【LeCun台大演讲】AI最大缺陷是缺乏常识,无监督学习突破困境说道:

    讲者:Yann LeCun 整理:熊笑

    【新智元导读】近日,在台湾大学,卷积神经网络之父、FacebookAI 研究院院长 Yann LeCun 以「Deep Learning and the Path to AI」为题,对深度学习目前的发展现状和面临的最大挑战、以及应对方法进行了综述和分析。

    6 月 29 日,台湾大学。卷积神经网络之父、FacebookAI 研究院院长 Yann LeCun 以「Deep Learning and the Path to AI」为题,对深度学习目前的发展现状和面临的最大挑战、以及应对方法进行了综述和分析。新智元结合台湾大学在 Facebook 上公布的视频、台湾科技媒体 iThome 的报道,以及 Yann LeCun 今年早些时候在爱丁堡大学的演讲资料,为您综合介绍。

    深度学习的特点在于“整个程序都是可训练的”

    演讲从模式识别(Pattern Recognition)的起源说起。1957年,Perceptron 诞生,成为第一个 LearningMachine。LeCun 说,目前的机器学习算法大多衍生自 Perceptron的概念。

    从那时起,模式识别的标准模型就可以分为 3 步走:1.程序被输入一张图像,通过特征提取,将图像特征转换为多个向量;2. 输入这些向量到可训练的分类器中;3.程序输出识别结果。

    他表示,机器学习算法其实就是误差校正(Error correction),通过调整权重,来进行特征提取。也就是说,如果输入一张图,算法识别后,结果值低于预期类别的值,工程师就将输入的图增加 Positive 的权重,减少 Negative 的权重,来校正误差。

    深度学习是当今最广泛使用的模式识别方法。LeCun 认为深度学习的特点在于“整个程序都是可训练的”。他解释,构建深度学习的模型不是用手动调整特征提取的参数来训练分类器,而是建立一群像小型瀑布般的可训练的模组。

    当开发人员将原始的影像输入系统后,会先经过初步的特征提取器,产生代表的数值,在这一个阶段可能会先识别出一些基本的纹理,接下来这些纹理的组合会再被拿来识别更具体的特征,像是物件的形体或是类别,整个训练的过程就是不断地经过一层又一层这样的模型,每一层都是可训练的,所以我们称这个算法为深度学习或是端到端训练(End to End Running)。

    LeCun 解释,深度学习模型之所以工作良好,是因为现在的影像都是自然景象加上其他物体,也就是混合型的图像,而每个物体又由不同的特征所组成,会有不同的轮廓和纹路,图片的像素也是一个问题,因此,可以将影像分级成像素、边缘、轮廓、元件和物件等,初级的特征提取会先侦测出影像中最基本的轮廓,比如明显的纹路和色块,进一步的特征提取则是将上一层的结果组合再一起,拼成一个形体,最后再拼成一个物体。

    这种分层式的组合架构(Hierarchical Compositionality)其实不只适用于影像,LeCun说明,它对文字、语音、动作或是任何自然的信号都适用,这种方式参考了人脑的运作模式。大脑中的视觉中枢,也是用类似分层式的组合架构来运行,当人类看到影像后,由视网膜进入到视丘后方外侧膝状体,再到大脑中主要的视觉中枢,最后来到颞叶皮质,人类看图像也是由大脑经过多层的结构,在100毫秒内就能识别图片。

    深度学习的问题在于如何训练,在1980年代中期,误差反向传播算法(Back Propagation Algorithm)开始流行,但其实误差反向传播算法很早就被提出来,只是当时没有受到重视。误差反向传播算法一开始先经过简单线性分类,再将这些结果带到非线性的线性整流函数(Rectified Linear Unit,ReLU),线性整流函数就是找到要调整参数的方向,来减少错误判断,不过现在都已经有可用的套件或是框架,像是Torch、TensorFlow 或是 Theano等,还有一些套件是可用来计算输出结果和预期结果之间的误差。

    Yann LeCun认为,现在要撰写机器学习算法并不难,用 3 行 Python 就可以完成,不过这还停留在监督式学习阶段,所谓的监督式学习就是输入大量的训练样本,每一套训练样本都已经经过人工标注出原始图片和对应的预期结果。以影像处理为例,训练集由多个(X,Y)参数组成,X就是影像的像素,Y则是预设的识别结果类别,像是车子、桌子等,之后再用大量的测试集来测试程序,若判断结果正确,不用调整,若判断有误则调整程序中的参数。

    监督式机器学习存在二大问题

    因此,Yann LeCun表示,监督式的机器学习就是功能优化(Function Optimization),资料输入和输出的关系通过可调整的参数来优化,经由调整参数的方式,将结果的错误率降至最低,其中,调整参数的方式有很多种,很多人都会用梯度下降算法(Stochastic Gradient Descent),梯度下降算法可以找到最适合的回归模型系数.即时地根据输入的资料动态调整模型。

    身为「卷积神经网络之父」的 Yann LeCun 也介绍了卷积神经网络(Convolutional Neural Network,CNN),卷积网络就是将输入的影像像素矩阵经过一层过滤器,挑选出特征,再透过池化层(PoolingLayer),针对输入特征矩阵压缩,让特征矩阵变小,降低计算的复杂度。CNN影像和语音识别都有很好的成效,不仅如此,还能识别街上移动的路人、街景的物体,Facebook 也用 CNN 来识别 Facebook 用户上传的照片,他表示一天 Facebook 就有10亿以上的照片,可以準确地识别物体的类别,像是人还是狗、猫等,还能识别照片的主题,像是婚礼或是生日派对等。

    不过,Yann LeCun提出,监督式的机器学习有2大问题,第一是要如何建立复杂的算法来解决复杂的问题,第二则是手动调整参数的知识和经验都是来自于不同任务,许多工程师想要处理的领域,像是影像识别、语音识别都需要建置不同模型,因此,监督式机器学习可以在训练过的专案上有很好的表现,但是没有训练过的资料,程序就无法辨别,简单来说,如果要程序识别椅子,不可能训练所有椅子的特征资料。

    事实上,Yann LeCun 表示现实中有种机器具备数百万的调整钮(Knob),这些调整钮就像机器学习中的参数和 Perceptron 的权重一样,可以用上百万的训练样本来训练模型,最后分类出上千种的类别,但是,每一个特征的识别都必须经过数十亿次的操作,因此,可想而知,现今大家所使用的神经网络是非常复杂的,如此庞大的运作不可能在一般的 CPU 上执行,“我们面对的是非常大规模的优化问题。”他说。

    AI系统的架构

    AI系统的架构大致上可以分为感知(Perception)、触发器(Agent)和目标(Objective)3个模组,先由感知器侦测真实世界的数据,像是影像、语音等,这些数据经由触发器,会依据状态触发目标,执行相对应的程序并产生结果,其中触发器就是AI 的精髓,触发器必须要负责规划、预测等智能工作,而目标则是由本能和固定的两个元件所组成,以视觉识别(VisualIdentity)系统为例,经由感知收集影像数据,透过触发器触发分析情绪的程序,再判断影片中的人是开心还是不开心。

    AI 架构中的触发器(Agent)主要负责预测和规划,运作过程又可分为模拟器(Simulator)、执行器(Actor)、回馈器(Critic),模拟器接收到状态后,传送给执行器,执行器就会启动相对应的动作,并同时对模拟器提出要求,启动相对应的动作之后送到回馈器,经由回馈器分析要採取的动作,决定后才送往目标(Objective)执行。

    AI 最大局限是没有人类的“常识”

    市场上 AI 好像无所不能,但其实,Yann LeCun个人认为,AI 还是有些局限,像是机器必须会观察状态、了解很多背景知识、世界运行的定律,以及精确地判断、规划等,其中,Yann LeCun 认为 AI 最大的局限是无法拥有人类的「常识」。

    由于目前比较好的AI应用都是采用监督式学习,能够准确识别人工标示过的物体,也有些好的成果是用强化学习(Reinforcement Learning)的方式,但是强化学习需要大量地收集资料来训练模型,Yann LeCun表示,对应到现实社会中的问题,监督式学习不足以成为“真的”AI。

    他指出,人类的学习是建立在与事物互动的过程,许多都是人类自行体会、领悟出对事物的理解,不需要每件事都要教导,举例来说,若有个物体被前面的物体挡住,人类会知道后面的物体依然存在的事实,或是物体没有另一个物体支撑就会掉落的事实。

    “人脑就是推理引擎!”他说明,人类靠着观察建立内部分析模型,当人类遇到一件新的事物,就能用这些既有的模型来推测,因为生活中人类接触到大量的事物和知识,而建立了“常识”。这些常识可以带领人类做出一些程序无法达到的能力,像是人类可以只看一半的脸就能想像另外一半脸,或是可以从过去的事件推测未来等。

    他举例,若人类看到一张战利品放不下行李箱的图片,再看到一个句子说:”这些战利品放不下行李箱,因为它太小了。“人类能够很清楚地知道“它”指的是行李箱,人类也因为知道整个社会和世界运行的规则,当没有太多的信息时,人类可以依照因果关系自动补足空白的信息。

    无监督式学习是突破 AI 困境的关键,采用无监督学习的对抗训练让 AI 拥有真正自我学习的能力。

    如何让 AI 拥有人类的常识?Yann LeCun认为要用无监督式学习。他又称之为预测学习,他将现今机器学习的方式分为强化式、监督式和无监督式学习,并以黑森林蛋糕来比喻。

    强化学习是蛋糕上不可或缺的樱桃,所需要资料量可能大约只有几个Bits,监督式学习是蛋糕外部的糖衣,需要10到10,000个Bits的资料量,而无监督学习则是需要数百万个Bits,无监督学习被他比喻为黑森林蛋糕,因为无监督学习的预测能力像拥有黑魔法一样神奇,不过,他也强调黑森林蛋糕必须搭配樱桃,樱桃不是可选择的配料,而是必要的,意味着无监督学习与强化学习相辅相成,缺一不可。

    Yann LeCun认为,程序还是很难在不确定性的情况下,正确地预测,举例来说,如果一只直立的笔,没有支撑之后,程序可以判断出笔会倒下,但是无法预测会倒向哪一个方向。

    因此,他表示,对抗训练(Adversarial Training)是可以让 AI 程序拥有自学能力的方法,他解释,对抗训练就是让两个网络相互博奕,由生成器(Generator)和判别器(Discriminator)组成,生成器随机地从训练集中挑选真实数据和干扰噪音,产生新的训练样本,判别器再用与真实数据比对的方式,判断出数据的真实性,如此一来,生成器与判别器可以交互学习自动优化预测能力,创造最佳的预测模型。

    视频链接:www.facebook.com/816762428486534/videos/826164667546310/?fallback=1

发表评论

邮箱地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>