李维:反伊莉莎效应,人工智能的新概念

隆重推出立委版人工智能新概念【反伊莉莎效应】,以后如果进了AI历史,各位都是见证人,发明权属于立委。

来源:科学网 作者:李维

我: 人工智能里面有一个著名的现象,叫伊莉莎效应(Eliza Effect),说的是人可以过度解读机器的结果,读出原来不具有的意义。维基百科对“伊莉莎效应”定义如下:

“计算机科学中所谓伊莉莎效应,指的是人有一种趋向,在下意识中以为电脑行为与人脑行为相似。其实只是以简单的语言模式识别为基础的巧妙运用。从具体形式上看,伊莉莎效应指的是,‘人们阅读由计算机把词串成的符号序列,往往读出了这些符号并不具备的意义’。更一般地,伊莉莎效应描述这样一种情形,仅仅依据系统的输出,用户就把计算机系统理解为具有‘其控制(输出)软件完全不可能取得的内在素质和能力’,或者,‘以为(输出)反映了实际上不存在的更大的因果关系’。”

其实,对于人的所谓智能也有类似的一个效应,可以叫做【反伊莉莎效应】(Anti-Eliza Effect),就是很多时候我们把人类的能力神话,忽视了其中 90% 以上的成分其实很水,情不自禁地把所谓脑力劳动归于人类独有的灵性。它实际上是同一个效应的另一面。

拿最近讨论的微软的机助对联诗词来说。在大众的心目中,文学艺术在人类心智活动中具有崇高的地位。电脑作诗作曲听上去就有点亵渎神明,这一切背后其实都有“反伊莉莎效应”的影子。诗词和对联这类很高级的智能活动里面的一些要素,包括押韵、对仗、格律、词序等,这些本来以为是很神,非艺术家不能掌握的能力,其实都可以分解,可以形式化,可以模拟得比人还强。

人的智能其实经不起分解,分解几次以后就发现,人的神性或灵感不超过 1%,99% 是水货。糅合在一起就容易被我们膜拜为大师或天才。人工智能(AI)的目标从来就不是对准那 1%,既不可能,也无必要,总得给人类留点面子。

拿对联来说,属于 1% 的绝妙好联还有:因荷而得藕 (因何而得偶),有杏不须梅 (有幸不须媒)。老友还给了一个“绝对”:莲子心中苦(怜子心中苦), 梨儿腹内酸(离儿腹内酸)。这类 “机巧”可遇不可求,没办法也无必要去 model 它。没有可重复性的东西不具有AI价值。证明“绝妙好联”不具有可重复性很简单,对于这些对联,基本可以肯定,没有哪个大师还可以找到第二个下联,可以对得同样“机巧”。而机器要做的事情不是唯一,而是一组。这组结果如果排序,second best 与首选通常也不会一落千丈。

宋: 那倒不一定。大师找不到,机器也许能找到。你说的荷杏联,如果有一定的语音知识、百科知识,也许能湊出来。

我: 机器搜索空间大,撞大运的概率会高一筹?不好说。难的不在某一个层面的形式化。

宋: 字形的困难更大一些。

我: 难的是,但不同层面相交的时候,人偶然可以“巧遇”一个最佳组合拿出来说事儿。但机器模型化的时候为了总体效应所给的不同权重,往往在结果中需要排除那种“巧遇”。在所有的路径中,虽然理论上可以把尽可能多的选项输出来,但实际上对于机助系统总要卡一个 threshold,而那些拿出来说事的绝妙好联基本上就淹没在 threshold 下面的某个角落了。不能为了它万分之一的可能性,把一个工具弄得让人受不了,太多的选项人不愿意用或无法穷尽。

: 不过这些都是在可以形式化、可以演绎的范围内,困难的只是计算复杂度。真正麻烦的是归纳。现在说的机器学习,都是演绎。

我: 的确,比起演绎,归纳不好形式化。

准备正式提出这个新概念 “反Eliza效应”,谈的是人类自我神话的习惯与本能。人类的自我神话表现在读出原来没有的意义和无限夸大人类的灵性。同样一件作品,如果告诉你是机器做的,人会本能地贬低它,以维护万物之灵的自尊或不屑与机器为伍的傲慢。而如果这个作品被相信为文物,便会引来无数解读和赞赏,挖掘出本身完全不具有的各种意义来。

文学评论中的一多半都有这种效应的反映。对抽象派的艺术、行为主义的艺术,这类效应被合理化了,读出作品不具有的意义,每个人读出不同的意义,被认为是作品本来的价值,甚至被认为是学养和素质的必需。指出皇帝没穿新衣,作品没有意义,不仅需要勇气,而且也破除不了这个魔咒,因为美学的理论在抽象派中已经无需新衣的装饰。

反伊莉莎效应是神秘主义的表征,而神秘主义是人类的一种本性。这是一个巨大的题目,有的可挖。这个效应是一个很好的概念,将来有望成为AI领域的基本概念之一。

不是要否定人类的至高无上,也不是要否定人类的 1% 的灵性和天才。只有最蠢的人才会如此自我否定,糟蹋人类。但是,无论科学还是工程,讲的都是丁是丁卯是卯。我们在 AI 的道路上和实践中,第一件要做的事儿就是剥离。把笼统的 “智能” 像外科医生一样用手术刀层层解剖,把 99% 的物质与 1% 的灵性剥离开来,然后我们才会让机器去 AI 99%,在人类日常智能活动中杜绝和取代平庸,并自觉地保持与 1% 的距离及其对真正“人智”的尊崇。

人工智能应用的一个大方向就是机助人工,不必盲目追求全自动,勉强机器去拼 1%,而是把人的智慧交给人,尽量最大化机器逼近那 99% 的苦力。这一原则在微软机助对联和诗词系统得到了初步而有效的体现。

换一个角度,凡是机器可以实现的AI本质上都是水货。很明显,随着时间的推移,越来越多的水货会从我们认为的万物之灵的智能里面剥离出来,一定会有剩下的,永远无法剥离的部分,那就是真实“人智”(同义词是,灵性、灵感、灵魂、悟性、神明)。

宋: 机器智能与人的智能的区别在于,机器只能在有限封闭的范围内进行搜索,这种搜索本质上是演绎。人的智能是归纳,归纳中又使用连想、类比,所涉及的范围是没有边界的,无法形式化。立委说的剥离,就是人找到了解决问题的套路,告诉了机器。至于人没找到套路的,则还属于尚未剥离的部分。但是如何找套路,需要人的归纳,机器没办法。学数学据说是要训练演绎能力,我觉得更重要的培养(不是训练,而是悟)归纳能力,如何在没有套路可循的情况下引入新的概念、新的引理,最终导致解决问题。从这个意义上说,让机器去解高考题,对于人脑智能的研究不会有本质的帮助,因为这个任务的实质是让人找出解答高考题的各种套路告诉机器。

我: 是啊,人找套路或算法的过程需要调用人的“高级智能”,也许这才是 1%。

宋: 人有可能找出各种复杂问题的求解套路,但是找不出“悟”的套路。

我: 但是,套路只要一个个去找,就会像蚕吃桑叶一样,一点点扩大形式化的疆域。疆域的每一个进步,就是智能的进一层剥离。也就意味着以前认为的“智能”不再属于人独有的智慧。所以说,如果人是 1%的神 和 99%机器的 杂交物,总有一天会让机器取代人的 99% 知识(智能)活动。

宋: 剥来剥去,还是有极限,“悟”是剥不动的。

雷: 有魂才有悟。

宋: 什么是魂?

雷: 智能之上。

我: 剥不动就承认其边界,归到 1% 的神手里,供起来。

现在的困难是,每一个具体的所谓 “智能” 任务,大多数还是一坨泥巴,没有被剥离。只有在剥离工作积攒得越来越多以后,再回头看那不可剥离的 1%,才能最后确定到底什么是神圣不可侵犯不可模拟的灵魂或神明。在此之前,人类往往在神话自己的能力,把根本不属于属灵的悟性,归到人类独有的智能里面。看一下历史。

在前电脑时代,计算能力被普遍认为是人的了不起的智能。记忆能力也是不得了的能力。一个人如果有超常的心算能力或过人的记忆能力,很容易成为人中杰,作为高智能的天才被人尊崇膜拜。

计算器和电脑出现以后,打破的第一个神话就是计算。现在就是最反智的人,也把计算排除出智能的外延了。电脑在计算上完胜人,是如此理所当然,没有人因此把机器看成是智能机。

计算之外是记忆。说记忆当然不仅仅是存储能力,还有配套的检索能力。很多的智能在剥离以后,就变成一个 customized 的检索算法加上存贮。于是智能的神秘面纱就被非神秘化,物质化,机器化了。

譬如自然语言理解(Natural Language Understanding,NLU)。语言理解是公认的人类关键智能。幸好,我一辈子就做这个活儿,有一点发言权。为了避免无谓的口水战,咱们先把语言理解缩小成语言的结构分析 (parsing)。这种缩小是合理的,因为至少 parsing 被认为是语言理解中的核心的环节,也一惯被认为是人的语言能力的一个重要的部分,这是有共识的。可以负责地告诉大家,parsing 这种智能里面,最多有 1% 的东西暂时不好剥离,99% 的 parsing 能力不过是语言学算法 + 语言知识库(存贮)。 我现在的 parsers,无论英文中文,就接近或达到这个水平了。特别是开发更久一点的英语 parser,我随机从网上 copy 英语句子,parse 出来的结果,50% 以上的时候,超出了我的预期或我的能力。不到 50% 的时候显示出还有些许的改进余地。99% 的语言现象能结构化。结构化是一个可以测量的目标。

D: parsing只是结构的分析,或者说一种语言学上的结构定义和分析,只是一种识别或者说系列标注方法,这种结构机器无法理解,而理解更多是从语义上来说的,需要支持推理,支持新知识的产生。

我: “这种结构机器无法理解”,很误导。无法理解为什么要做,难道 parsing 做了是就是为了好玩?根本上还是为了机器的“理解”啊,理解了才有动作,才可以测量。

理解有不同的定义,在NLP应用的真实世界,理解的落脚点是 grounding,是与特定应用的某个目标接上。接上了就是理解了,接不上就不能认为是理解了,这是自然语言理解的 AI 真义。针对这个,parsing 提供了理解的坚实基础。

现实的做法是,把理解留到产品语用的层面去定义,因为那是NLU的终极目的,定义不会扯皮。在语用层面定义的理解,可以实现为parsing结构化以后的应用层面的开发。实践表明,这个应用层开发的理解对接是短期可以完成的。也就是说,NLU 已经到了这个地步,只要产品对理解有一个明确无误的要求,在靠谱 parsing 的支持,一般没有做不成的。包括情感分析,这是我们过去五年的主打。也是 NLU 中几乎是最难的部分了。

从 NLU 或 deep parser 回到形而上,我想说的是,我们原先以为的人的智能,经不起剥离。每次剥离的实践,都让我们一次次有跌破眼镜的体验。很多智能有一种天然的【反伊莉莎效应】, 不仅是对普罗百姓,而且对我们这些业内人士也是如此。在你没有钻进去之前,你会觉得这个智能很神妙。但你剥离了大部出来以后,开始算法化,形式化,知识存贮化以后,妈呀,原来就是这么个机械玩意儿呀,怎么以前那么神秘它呢?只能说,神秘主义是人类的本性之一。

·氧分子网(http://www.yangfenzi.com)延伸阅读:

盖茨也担心人工智能威胁

微软,莫将人工智能炒成技术崇拜

陈根:人工智能恐惧症,源自人类内心的“恶”

这家人工智能创业公司谷歌应当赶快拿下

百度赵世奇:希望7年后人工智能给北京冬奥帮大忙

Diffbot:这家公司用人工智能技术识别网页内容

分享给您的好友:

您可能还喜欢…

1 Response

  1. 周志华CAIS大会现场演讲:人工智能时代什么最贵?人才!说道:

    9月12日上午,南京金秋洽谈会“2017中国人工智能峰会(CAIS 2017)”在南京国际博览会议中心盛大开幕。本次峰会以“创新、变革、突破”为主题,并设两大主题论坛,共吸引了30余位人工智能领域著名的科学家、企业领袖亲临现场,1500余名专业观众报名参会,AI科技评论作为受邀媒体参加了本次峰会并进行了报道。

    在大会上,南京大学计算机系教授、欧洲科学院外籍院士周志华回顾了人工智能的发展以及机器学习兴起的由来,并介绍了“学件”的思路。周志华教授称,经过人工智能发展的第一个阶段即上世纪六十年代,机器所具有的推理能力就已经达到了人类的巅峰水平,之后人工智能相继进入知识工程和机器学习阶段。在大数据时代,机器学习得到了长足的发展,直接导致了今天的人工智能热潮。但技术上仍存在诸多局限,为此,周志华教授提出了“学件”(Learnware)的概念,期望经过10到15年的探索以后进入一个新局面。

    周志华教授在现场还列举了一组数据,在今年的IJCAI大会上,中国本土相关研究论文数录用数量首次超过了美国,占到了差不多全世界三分之一,其中北京占约30%,江苏省占14%,居全国前两位。周志华教授认为,江苏有国内前列的人工智能研究实力,同时有国内前列的人工智能产业基础。“在国内的各个省份里面,同时具有这两个条件的地方并不是很多。”

    以下是AI科技评论根据周志华教授演讲现场记录稿整理的主要内容,已获得大会授权:

    我本人是从事人工智能方面研究的。经常有人问,“比人类更聪明的人工智能什么时候能够出现?”,这样的问题对我们来说非常难回答,这是为什么呢?因为谈到人工智能,其实可以说有两种完全不同的观点,或者说差别非常大的观点。

    第一种我们把它叫做“强人工智能”。目的是希望研制出和人一样聪明、甚至比人更聪明的机器;另外一种是“弱人工智能”,主要目的是觉得我们人做事的时候很聪明,那么能不能向人借鉴一下,让机器做事的时候更聪明。实际上在人工智能科学界,大家探索的主要是在第二个方面。

    有一个或许更容易理解的类比:一百多年前,人们看到天上鸟在飞,然后大家就想那我们能不能做一个东西飞起来。后来经过空气动力学研究,现在我们有了很好的飞机。但是如果现在问:这个飞机到底有没有比鸟飞得更好?这个问题可能就很难说了,因为飞机虽然飞得比鸟更远更高,但是未必有鸟飞得灵活。但不管怎么样,我们原来的目的已经达到了,我们已经有能够帮我们飞起来的工具。

    人工智能做的事情和这件事情非常的相似,就是我们看到有很多智能行为,希望借鉴这些东西做出一些工具,能够帮助我们做更强大的事情,实际上这就是我们真正在研究人工智能的时候所主要考虑的内容。所以人工智能研究的主要目的并不是“人造智能”,而是“intelligence-inspired computing”,智能启发的计算。

    人工智能的三个发展阶段

    搞人工智能的人到底在做什么呢?今天我们一般说人工智能作为一门学科诞生在1956年,那时候计算机的能力还非常弱,但已经有很多的学者在想,那么这样计算能力发展下去,我们是不是可以做一些更复杂的事情,那么这些事情到底是什么呢?在那年夏天在达特茅斯学院开了这么一个会议,在这个会议上后来被称为人工智能之父的约翰·麦卡锡,为这个学科就起了一个名字叫做人工智能。

    经过了60多年历史,如果从主流研究内容来看,人工智能的发展大概经历这么三个阶段:

    第一个阶段大概是在50年代中期到60年代,这个阶段主要是在做逻辑推理。这是为什么呢?大概因为我们理工科的都对数学家有一种自然的崇拜,觉得数学家非常聪明,能够证明一些非常复杂的定理,那这个背后的能力就是逻辑推理能力。所以在那个时候大家就想,如果我们能够把逻辑推理能力赋予计算机系统,那么这个机器做事情就会聪明起来,所以那个时候有很多很重要的研究结果,例如图灵奖得主西蒙和纽厄尔研制出来的“逻辑理论家”程序就是一个典型代表。

    那么这样的研究成果达到了什么样的水平呢?在上个世纪有两位伟大的逻辑学家罗素和怀特海,他们写了一本书叫做《数学原理》,用逻辑把整个数学系统建构起来。为了证明这本书里面的定理,他们花了十年时间,而这个程序证明这所有的定理只用了不到两个月的时间,而且其中有一条定理的证明比这两位伟大的逻辑学家证明出来的还要巧妙,更加简短、更加容易读懂。所以我们可以看到,在上个世纪60年代,机器所具有的推理能力就已经达到了人类的巅峰水平。

    但那个时候机器做事情并没有真的变得很聪明,所以大家慢慢地就意识到其实光有逻辑推理能力是不够的,即便是数学家,为了证明数学定理除了要有逻辑推理能力,还要有数学知识。所以人工智能的研究很自然的就进入了第二个阶段,在这个阶段大家就想的是我们能不能把知识总结出来教给计算机系统,所以这就进入了我们所谓的一个“知识工程”时期,这里面的代表人物例如后来的图灵奖得主,被称为知识工程之父的爱德华·费根鲍姆。在这个阶段大家主要做的事情就是希望把人类专家解决问题的知识总结出来,比如说,“如果看到岩石里面渗出红色,那么这个里面很可能是铁矿”,把这样的知识总结出来,然后编程放到计算机系统里面,由此就产生出很多“专家系统”,确实解决了很多应用问题。

    但是后来慢慢的大家就发现,要把知识总结出来再交给系统非常的困难。一方面有时候我们人类专家能够解决一些问题,但是这个知识是什么可能说不清楚。有的人类专家可能还不太愿意分享他的知识。然后大家就想那么这时候我们该怎么办?因为我们的人的知识其实主要是靠学来的,所以先驱们很自然地就想到那么我们能不能让机器自动的去学知识,所以从20世纪90年代开始,人工智能的主流研究就进入到第三个阶段,这个阶段一直持续到今天,就是我们的机器学习阶段。

    大数据时代的机器学习

    所以我们可以看到机器学习最早诞生出来,它是为了解决知识获取这么一个瓶颈而出现的。机器学习的经典定义是“利用经验改善系统自身的能力”。不论什么样的经验,一旦放在计算机系统中,它必然是以数据的形式存在的,所以机器学习要研究怎么去利用经验,他就必须要对数据进行分析,所以这个领域发展到今天,实际上主要研究的是怎么样利用计算机来对数据进行分析的理论和方法。

    我们可以看到,其实机器学习走上历史舞台是因为要解决知识获取的瓶颈,但恰恰在20世纪末,我们人类发现自己淹没在一个数据的海洋里面,我们需要对数据分析,我们需要这样的技术,而机器学习恰恰在这个时候走上舞台了,所以给我们提供了这个机会,我们对他的需求就迫切的高涨。

    今天我们都说是在“大数据时代”,但其实光有大数据并不意味着得到了价值。大数据就好比是一个矿山,我们拥有了矿山,如果要得到里面的价值,必须要有很强大的数据分析技术,而这个数据分析技术是什么呢?今天我们主要就是要靠机器学习。所以在大数据时代要让数据发挥作用,就离不开机器学习技术。所以可以看到,机器学习已经可以说是无处不在了,不管是互联网搜索还是人脸识别,还是汽车自动驾驶,还是火星机器人包括美国总统大选甚至军队的战场数据情况分析,任何地方只要你有数据只要你希望用计算机来帮助你做数据的分析,你就可能使用机器学习技术。可以说今天我们在这里有这个论坛,是因为人工智能现在很热,而人工智能有这个热潮,其实恰恰就是因为机器学习,尤其是里面的深度学习技术在过去十来年里面取得了巨大的发展,在大数据时代发挥了巨大的作用。

    我们现在有很多的问题,有很多的企业是基于深度学习技术来做的,它可以解决很多问题,但是大家要注意到深度学习、机器学习、人工智能这三者之间的关系:深度学习是机器学习的一个分支,而机器学习又是人工智能的核心领域,但它并非人工智能技术的全部。深度学习虽然取得了巨大成功,但并不能够包打天下,还有很多其他的机器学习技术在很多方面在发挥作用。

    机器学习的技术局限与下一步发展

    关于机器学习下一步发展的看法,下面谈谈我个人的一些粗浅的思考,这些看法很可能是错的,仅供大家批评参考。

    我们今天谈到机器学习的时候,很多对机器学习熟悉的人会想到什么呢?可能有些人想到的是算法,有些人想到的是数据。我们可以说,今天的机器学习就是以“算法加数据”这么一种形态存在的。在这种形态下,我们的技术上存在哪些技术局限?我来列举一些。

    数据需求大

    首先,我们可能需要大量的训练样本。大家可能说今天我们是大数据时代,那么大量的训练样本这件事情可能已经不再是问题,其实这里面有几个典型的情况能够告诉我们,这其实还是一个很大的问题。

    首先在有些应用里边,可能我们的样本总量很少,比如说我们在做油田定位的时候,那这个数据必须通过人工诱发地震才能获得,所以你要获得这样的数据成本是非常高的,不可能有大量的数据去用;

    第二种情况是数据可能很多,但是我们真正关心的很少,比如说我们在做银行的这种欺诈检测的时候,每天一个银行的信用卡交易数据可能有几百万上千万,但是其中真正的信用卡欺诈的数据可能很少;

    还有一种情况,我们数据的总量很多,但是我们已经标注了结果的东西很少,比如说我们要做软件的缺陷检测,我们有大量的程序代码,但是程序代码里面真正把缺陷标记出来的,这样的数据是非常少的;

    环境适应弱

    第二,我们今天训练好了一个机器学习模型,之后环境如果稍微发生变化,就可能导致这个模型失效,至少是大幅度降低它的性能。比如说在我们一个传感器的世界里面,我们放出去一百个传感器,一个月之后有60个传感器失效了,这时候我新部署60个传感器,那你说我还是一百个,那我原来的模型能不能用呢?很抱歉,这时候模型的性能会大幅度衰减,因为你很难把新的传感器放到原来的位置,它发出来的信号质量和强度和原来也会有很大的变化,这时候我们的模型可能就已经很难适应了,所以这又是一个很重要的问题。

    可解释性差

    第三个问题很多人都知道,今天的机器学习系统绝大多数都是黑箱,我们能做出预测,甚至是非常精确的预测,但是我们很难解释为什么做出这样的预测,这就会导致这样的系统在一些高风险应用里面很难使用,比如说我们要做地震预报,我们说明天要地震,请大家撤离。领导肯定会问那你凭什么做出这样的决策?如果这个模型是黑箱,他只能告诉你,我就告诉你肯定是这样,具体什么理由我也不知道,如果是这样的话,谁也不知道是不是瞎蒙的,那这件事情肯定不太容易采纳这个建议。

    性能差异大

    这其实还有很多别的问题,比如说今天我们在使用机器学习技术的时候,即使对同样的数据,普通用户所能得到的结果和专家所能得到的结果,这中间的差别可能非常的大,怎么样使用这个数据怎么样使用这个模型,大家的知识和经验的差别会导致结果模型巨大的差异。

    数据分享难

    此外还有一个问题可能提到的人比较少,我举一个例子,比如说我们现在有大医院,他有很多的病例数据,如果我们现在要做智慧医疗,那他基于这些数据可能做出非常好的诊断系统。而我们的社区医院的病例数据可能比较少,直接基于它的数据很难做出这样好的模型,现在社区医院说你这个大医院能不能帮帮我?大医院说我很愿意帮你,但是这件事情就算它愿意帮这个忙,可能也很难帮得上,因为一旦它要分享他的病例数据,马上就会涉及到数据隐私、数据所有权、数据保护等等的问题,所以这里面有一个数据分享的墙。

    学件

    还有很多其他问题。对于几个每个方面,今天我们都有研究者在做相关的探索,但是如果把所有这些方面割裂的一个一个的去解决,可能就很难摆脱头疼医头、脚疼医脚这样的一种现状。所以我们就想,有没有可能在一个整体性的框架之下全面的去考虑这些问题。最近我们提出了一个想法,我们它叫做学件(Learnware)。这是个什么样的想法呢?很多人可能在自己的机器学习的应用中已经建立了很好的模型,他们也很愿意把这些模型分享出去。那假设我们有一个市场让大家来分享这些模型,以后一个新用户想要做他自己的机器学习应用时,就不用自己从头去建模型,而是可以先到“学件”市场上找一找有没有合适的,可以拿来用做基础。

    比如说,用户要找一把切肉刀,那他肯定不会自己从采矿打铁开始重新造一把刀,而是先看看市场上有没有这样的刀,如果有合适的更好,即便没有合适的,比如说找到一把西瓜刀,那他就可以拿回去然后用自己的数据重新“打磨”一下,可能这就成为很适用的工具了。所以,这个想法的关键是希望能够部分重用他人的结果,而不必“从头开始”。

    为了达到这个目的,我们设想的学件是由两部分组成,一部分是模型(Model),另一部分是用于描述这个模型的规约(Specification)。模型需要有满足三个重要的要求:可重用性、可演进性、可了解性,规约要能够给模型提供足够的描述。这些在技术上现在大概都有一些初步的想法和探索,今天就不展开了。如果学件真能成为现实的话,可能我们刚才提到的这些问题都可以得到全面的解决。我们期望也许经过10到15年的探索以后,也许我们机器学习可以从“算法加数据”这种形态过渡到未来的这么一种学件的形态。

    最后,因为我今天是代表江苏省人工智能学会,用两分钟谈谈我们江苏省的人工智能事业。我们可以做两个判断,江苏省有国内前列的人工智能研究实力,还有国内前列的人工智能产业基础。在国内的各个省市里面,同时具备这两个条件的地方并不多。

    下面给大家看几个数据,是关于人工智能研究力方面的一点反映。在2017年的国际人工智能领域的顶级会议IJCAI上,我们中国本土单位的录用论文数首次超过了美国,这个里面各个省区的分布,北京大概占30%。江苏省14%,居第一和第二位。我们再看看过去这几年发展增长的速度,中国计算机学会人工智能大会在2013年的时候,北京录用论文是江苏省的两倍多,2017年江苏是北京的两倍,这在一定程度上反映出过去这么几年的时间里面,江苏的人工智能基础人才发展可能有一个快速的增长。江苏省人工智能学会8月28号在省科协指导下成立,得到了省科技厅、经信委、民政厅等很多单位以及高校科研院所和企业的支持,也反映出各方面对人工智能事业的发展非常重视。

    在人工智能时代什么东西最贵?什么最缺?答案大家都很清楚,那就是人工智能人才。可以说,有多好的“智能人工”,才可能有多好的“人工智能”。江苏省在这方面有很好的基础,所以我相信江苏的人工智能事业前途应该一片光明。谢谢大家。

    (AI科技评论整理)

发表评论

电子邮件地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>