【nature】深度学习巨头看人工智能界人才迁徙

人工智能热潮兴起,大量研究人员从学术界走向产业界,这股趋势是好是坏?nature 昨日发文,记者采访深度学习代表人物,吴恩达笑言有人怪他开了这个头,Yoshua Bengio 对学界人才流失表示担忧;Geoffrey Hinton 则主张当前企业实验室能提供高校所没有的大数据和基础设施,而且基础研究也能在产业界进行。

2011 年吴恩达从斯坦福加入谷歌,那时候还只有很少的人工智能专家从学术界走向产业界。5 年后的今天,市场对人工智能专家的需求骤涨,大量研究者都跟随了吴恩达的脚步。看一眼科技巨头企业谷歌、微软、Facebook、IBM 和百度的实验室,里面都是从大学出来的科学家。如今已经是百度首席科学家的吴恩达在接受 nature 记者采访时表示,学界里有些人怪他开了这个头。

很多科学家认为,企业的高度关注对人工智能研究是好事,因为这给领域带来了大量的工程资源,向世人展示了人工智能在现实生活中的应用,还吸引了很多学生攻读人工智能专业。但有的科学家也对人才逐渐从学术界向产业界流动表示担忧,他们认为这样会令高校缺乏人工智能人才,从而导致基础研究滞后,而基础研究滞后终将影响产业界和商业界在人工智能方面所付出的努力。

私人企业也在投资人工智能,尤其是深度学习。深度学习先驱 Geoffrey Hinton 在接受 nature 记者采访时表示,院校资源做不到的事情,企业实验室的资源有可能做得到。Geoffrey Hinton 之前在加拿大多伦多大学工作,2013 年加入谷歌。Hinton 举例说,语音和图像识别由于缺乏数据训练算法,再加上硬件配置不足,多年来一直停滞不前,但在谷歌就不会为此受限。

吴恩达表示,他自己就是受了谷歌海量数据和强大计算能力的吸引,此外还有谷歌解决现实世界问题的能力。吴恩达说:“人工智能现在超级火。到处都是机会,但很少有人去做。”

另一个诱惑则是私人企业能提供“天文数字”的薪资,全球最大招聘网站 Indeed 的首席经济学家 Tara Sinclair 告诉 nature 记者。

学界和产业界双赢

加州大学伯克利分校人工智能和深度学习专家 Pieter Abbeel 表示,如今的这股热潮表明人工智能技术已经发展到了能够对现实世界产生影响的地步,而企业本身就是运用技术为社会提供产品和服务的。

荷兰莱顿大学社会科学家 Robert Tijssen 表示,上世纪50年代,同样的职业迁徙现象也在半导体研究中出现过,当时半导体领域的很多顶尖学者都被挖走,成为产业界研发实验室的负责人。Robert Tijssen 对 nature 记者说,这些学者将他们的专业知识带入产业界,同时在产业里建立新的关系,而后又将这些产业关系反馈给原来学术界的同事和学生,达到典型的双赢局面。

位于卡内基·梅隆大学的美国国家机器人工程中心(US NREC)负责人 Herman Herman 对 Tijssen 的观点表示赞同。2015年,NREC 与 Uber 合作,Uber 从 NREC 的 150 名研究员当中招走了将近 40人,主要是研究自动驾驶汽车的研究员。当时有报道称 NREC 陷入危机,但 Herman 表示那个说法稍微言过其实;NREC 与 Uber 的合作项目只是卡内基·梅隆大学机器人研究所几十个项目中的一个,而机器人研究所有大约 500 名教职员工,这次人员调动对研究所来说正好是换新血的机会。而不久之后,Uber 就向机器人研究所捐资 550 万美元,用于支付学生和教职工的奖学金。同时,这一事件的新闻性还提升了机器人研究所的知名度,学生提交申请数量也增多了。

加拿大蒙特利尔大学的 Yoshua Bengio 对学术界人才流失表示担忧。如果在产业界供职的教员保留在大学里的职位,就像 Hinton 和吴恩达那样,但他们毕竟是少数,Bengio 告诉 nature 记者。Pieter Abbeel 补充说,高校教员减少会导致受训学生数量也减少,尤其是博士级别的学生。

不过,Hinton 预计深度学习领域专家短缺只会是暂时的。Hinton 告诉 nature 记者,谷歌承认高校研究生项目的重要性。目前,谷歌资助了 250 多项学术研究项目和几十个博士奖学金。

nature 调查统计发现,DeepMind 研发团队约有 65%的成员直接来自学界,其中很多来自伦敦学院大学。DeepMind 的创始人 Demis Hassabis 和 Shane Legg 在成立 DeepMind 之前都在伦敦学院大学工作。来源:nature

nature 工作人员收集在线数据,计算出 DeepMind 团队中带有“research”头衔的工作人员增长比例,红色代表企业,蓝色代表学界。来源:nature

牛津大学的计算机科学家 Michael Wooldridge 表示,为产业界输送人才是高校的职责,但他看到人工智能热潮之下落得冷清的学术界十分纠结。2014 年,谷歌在英国伦敦的公司 DeepMind 从牛津招了 10 名研究人员,但谷歌给了牛津大学百万美元的捐赠,还结成了科研合作项目。许多被挖走的教员依旧在大学里热心上课,这给了学生以往没有的机会。

学界人才流失长期影响

Bengio 还担心企业收拢人才的长期影响,他表示在产业界工作的研究者行事更为保密。虽然谷歌、百度等企业研究所的科学家还在公开发表论文和代码。但是,Bengio 指出企业科学家依旧不会在论文发表前讨论他们的工作,因为他们更有可能申请专利。Bengio 对 nature 记者说:“那样合作就更难了。”

有的产业界人士也担心资源的公开透明。2015年12月,以 Elon Musk 为首的一批硅谷投资人用 10 亿美元创立了一个叫做 OpenAI 的非盈利公司,致力于为公众利益发展人工智能,免费与其他机构合作与共享专利。

尽管谷歌、Facebook 等公司目前看来还是在解决人工智能方面的根本问题,但Bengio 担心这可能不会持续太久。Bengio 对 nature 记者说,商业要考虑短期盈利,这是事实,贝尔实验室和 AT&T 实验室一开始很好,到后来也因为过于注重为公司实现短期盈利目标而致使人才流失。

Hinton 则主张基础研究能够在产业界得到发展。他认为鉴于当下人工智能研究的迫切需要,如今的基础研究的延伸项目难免在企业进行,但学术界仍会在人工智能研究领域占据关键地位。Hinton 告诉 nature 记者,学术界是最有可能产生超前创新想法的地方。

【新智元(微信号:AI_era)编译,译者:闻菲,来源:nature,作者:Elizabeth Gibney】

·氧分子网(http://www.yangfenzi.com)延伸阅读:

分享给您的好友:

您可能还喜欢…

  1. Turing Award 其实很奇葩,一个领域发了图灵奖,就代表这个领域基本上已经死了,没什么好做的了。比如密码学,自动机,分布式计算,与模型检测。 而且这个奖特别喜欢发给做理论的。我呢,恰恰相反,认为这世界上的绝大多数事情人类是不可能找到严格理论的。

    这么看来,不发给deep learning,也许反而是好事。

    不过让我惊讶的是Hinton, Lecun居然连ACM Fellow都不是。可见这个领域有多黑。

    这些年所谓深度学习(Deep Learning),其实是指多层的Neural Network(NN)、单层或多层的Restricted Boltzmann Machine(RBM)、Convolutional Neural Network(CNN)等,CNN其实是在NN的基础上引入共享权重,pooling等技巧,是NN的简单变种,而RBM是一种generative版本的NN。

    不可否认上面三位对Deep Learning有重大贡献,基本上奠定了NN的重新崛起(其中Hinton长年在NN上的坚持尤为重要)。但是,这三位要拿到图灵奖有两方面困难:

    一是NN本身难以获奖,NN属于机器学习方向的内容,机器学习相关方面是有得过图灵奖的,比如Leslie G. Valiant和Judea Pearl,Leslie Valiant的PAC理论是可学性方面的基础理论,奠定了机器学习的基础,而NN作为众多的classification、regression工具之一,其地位与各种机器学习模型不相上下,比如SVM,Adaboost(boosting方面有诸多模型,Adaboost仅仅作为代表列出),Random Forest,并且这些模型还有相应的泛化性保证(NN没有),然而这些各种机器学习模型从学术角度看还不够基础,地位不如这两位图灵奖获得者的基础性工作,从价值上看很难获得图灵奖。

    二是即使NN能够获奖,恐怕不会是这三位之一,NN的工作50年代就有,Frank Rosenblatt提出了感知机(wiki上提到的NN历史比这个更早https://en.wikipedia.org/wiki/Artificial_neural_network#History),Deep Learning毕竟就是NN,模型上没有太多贡献,总之,最早提出NN的并非这三位Deep Learning大佬。NN提出之初没有足够好的算法用于求解多层的NN,后来出现了Back-Propagation(BP)算法求解多层的NN,三位大佬中Hinton资历最老,对BP算法在NN中的应用有贡献,而在他之前Paul Werbos才是最早提出BP算法的人,假设NN方面的工作能够获得图灵奖,Hinton由于竞争对手较强,获奖有点困难。而Yann Lecun和Yoshua Bengio虽然是ML界大神,在NN方面贡献比不上前面提到的诸位,较难有机会因为NN获得图灵奖。
    对于这三位杰出的scientist,他们真正的贡献应该更多的是在practical层面,是他们不懈的努力,让很多现实中原先很难解决的问题(比如语音识别,图像识别等等),被NN或者说deep NN很好的解决了。就好比诺贝尔奖不会给爱迪生,但爱迪生改变了人类的生活一样,图灵奖和这三位之间或许完全不用互相奢求吧。

    我个人很喜欢带bound的paper,前提是这个bound可以给人启发。我觉得对于证bound这个事见人见智,bound本身是个优美而严格的东西,但是为了证bound而最后给出一个丑的不行的下界从中得不到任何启发,我觉得并没有什么卵用,每年icml这么多bound paper,不少都是在做数学游戏,照着凸问题狂搞,较少人敢碰非凸问题的bound,大家一边喷神经网络没理论没bound,一边又都不敢碰,这就有点怂了。不过最近越来越多的人开始重新进军NN的bound问题,jordan组最近出了几篇不错基于pac learning 关于nn的可学习性的paper,那里面的bound还是挺精彩的。题主可以一睹。

    再补充一点,我曾经当面问过他为什么不证bound,其实他早年搞过svm的时候也搞过bound,只是这事到神经网络的上面的时候太难了,能给出的bound都没有意义,有意义的bound又很难证。这不是他数学不好的问题,而是在之前一段时间整个机器学习界都很少有人敢碰这个问题,因为给不出有意义的bound。

    所以不是“他数学太弱,连个像样的bound都证不出来。”(题主某评论,貌似已经删掉),其实他早年玩bound的玩的不知道高到哪里去了。而是他认为“有些bound即使证明出来了,也没有任何价值。” 请题主自行感受一下。

    这几位教授在国际上对他们的评价基本都是“深度学习的活跃研究者”,“三巨头”这个说法是中国特色,基本类似于“四大金刚”,“十八罗汉”或者“葫芦娃七兄弟”的感觉,国人发现他们几个总是搞在一起谋划大事,而最新的成果又很多来源于他们三个,所以干脆一拍脑门起个狂霸酷炫的组合名字“深度学习三巨头”好了,这个称呼看看就好,认真你就输了。
    若论资排辈,自然是hinton>lecun>bengio。
    首先年龄上bengio就最小。
    hinton不用多说,经典工作堆成山,门下徒子徒孙遍地,lecun是hinton的postdoc,当年michael jordan想去hinton门下读postdoc都被婉拒,而bengio又是jordan的postdoc。
    虽说lecun不是cnn的发明人,但是他是第一个把bp用在cnn上并且完善cnn使得它可以在real application上work的人,也是自98年之后近20年的cnn第一推动者。
    说回bengio,bengio当年在att lab工作时,组长就是lecun,lecun的经典文章bengio是三作,那片文章的4个作者如今都是大牛。(题外话,当时vapnik也在att lab,可想当时有多热闹)
    所以资历上看很明显,bengio资历最浅。

    但是这不妨碍bengio成为dl的几大贡献者,bengio的主要贡献在于:1.他对rnn的一系列推动包括经典的neural language model,gradient vanishing 的细致讨论,word2vec的雏形,以及现在的machine translation;2.他是神经网络复兴的主要的三个发起人之一(这一点他们三个人都承认,之前他们一直在谋划大事,正是他们三个人的坚持才有了现在的神经网络复兴,这点最高票答案说的很对)包括了pre-training的问题,如何initialize参数的问题,以denoising atuencoder为代表的各种各样的autoencoder结构,generative model等等。
    3.symbolic computional graph思想的theano。这个库启发了后来的多个库的开发(直接基于它的库就不提了比如keras),包括国内很火的MXnet,google的tensorflow以及berkeley的cgt等等,可以说这个工具以及所涵盖的思想可以算同类型库的鼻祖。4.ICLR的推动者,个人认为ICLR是一种崭新的会议形式,包容开放,也正符合bengio本人的思想。5.其他paper。

    说到除了bengio之外的人,不得不提的一个名字是:Jürgen Schmidhuber。
    他是LSTM的发明人,gradient vanishing的贡献人,也是reccurent 结构的狂热推动者,手下得意门生比如alex grave等。Schmidhuber本人由于地处欧洲,和北美学术圈交流较少,而他本人性格稍显内敛,所以跟另外三位交集没那么大,喜欢自己闷头搞研究,此外他个人也是强ai的fans。但不得不说他对dl的贡献也是非常大。如果要我说dl贡献最大的几个人,我会把Schmidhuber也算进去。
    他的主页:Juergen Schmidhuber’s home page -Universal Artificial Intelligence

    综上,bengio的贡献足以让他进入最新一次神经网络复兴的前四名研究者了。

  2. Bengio 的 "A neural probabilistic language model" 这篇论文开创了神经网络做 language model 的先河。里面的思路影响、启发了之后的很多基于神经网络做 NLP 的文章,并且这些文章的方法在工业界也被广泛使用,如 word2vec,又及最近的一些机器翻译模型。这篇文章的贡献并不比 Yann Lecun 在 CNN 上的工作逊色。再说最近又火起来的 RNN 吧,Bengio 在 94 年就对 RNN 为什么难以学到 long-term dependencies 做过深刻的研究(IEEE Xplore Abstract)。另外,他的 "Greedy Layer-Wise Training of Deep Networks" 对 Hinton 提出的 layer-wise 方法训练深度神经网络做了更系统的扩展和研究,让大家又重燃对深度神经网络的兴趣和信心。Bengio 的工作还拓展到神经网络的工具上,大名鼎鼎的 Theano (Welcome — Theano 0.7 documentation) 就是他们 group 的工作。

    “三巨头”说法的另一个原因是他们三人在神经网络不被看好的年头还一直坚持研究神经网络,这就超出了学术能力而到达了学术品位和信仰的境界。他们三人活跃在 CIFAR (Meet the Man Google Hired to Make AI a Reality),这个对神经网络的命运啊有很大的关系 (How a Toronto professor’s research revolutionized artificial intelligence):
    CIFAR “had a huge impact in forming a community around deep learning,” adds LeCun, the CIFAR program’s other co-director. “We were outcast a little bit in the broader machine learning community: we couldn’t get our papers published. This gave us a place where we could exchange ideas.”
    个人很喜欢读 Bengio 的文章,读的时候有一种浑然天成的感觉,读完觉得“这个问题就该这么解决啊”。另外三巨头的文章、演讲都很有个性,基本不人云亦云。

    是由bengio,hinton和lecun一起做的,这也体现了他们之间的互相认可。
    其次,bengio提出了神经网络语言模型,将神经网络应用到自然语言处理(nlp)领域,这个成就还是非常有影响力的。
    还有就是前面人提到的深度学习框架theano,用python写的代码,我正在用。bengio还提出了分布式表达,应用也越来越广泛。
    最后还想说一下bengio的数学功底是非常强的,看他的论文能很明显的感觉到,之前看他的一篇sci,讲的是representation leaning,非常的全面,但是真的难懂。。。

    因为DBM是一个真正的无向图模型,层间互有反馈。所以在训练的时候,计算起来真的非常非常慢……比较常用的方法就是沿用当时对玻尔兹曼机求解的变分分析,利用均场来求解。
    DBN其实源自sbn,sigmod belief network,本质是个有向图,也就是说dbn其实是个生成模型。其实如果直接求解,dbn也复杂的很,可是Hinton在06年发表在Neural Computation上的A fast learning algorithm for deep belief nets.”这篇文章中提到了一种很取巧的方法,具体的细节不做过多阐述,因为确实很简介,就是简单的叠加RBM,逐层训练后来个最后的fine turn。方便快捷,而且效果也不错,现在经常用来做一些DNN和CNN的预训练,值得注意的是,hinton在imagenet上的比赛虽然是用的CNN模型,但是就是利用的DBN做的预训练。
    再重点说下DBM,这是我比较喜欢的一个DL模型。
    为什么喜欢,因为DBM才是真正的深度RBM模型!
    dbn其实只是借助rbm的训练方法来做罢了。
    RBM,作为一个概率神经网络,当然也可以理解成一个无向图模型,有一点我觉得很重要,那就是连接的无向性,也正是这个性质,才让模型符合了统计力学的各种理论,建立起美妙却虐人的RBM。但是DBN,无疑是一个向计算妥协了的折衷模型。

    可以看下DBN的模型结构,由于是有向图,前一层的分布并不依赖后一层。这就是为什么可以采取逐层训练了,因为h的分布不受v影响啊,确定了v的分布,h1的分布由h2来确定就好。这句可能有些难懂,放在后面细说。再来看下DBM的模型,和DBN最大的不同,就是DBM的低层的分布求解其实也依赖与高层的分布。简单的说,DBN的v层是依赖h1的分布,h1只依赖h2的分布,但是DBM的h1却同时依赖h2和v。
    这有什么区别呢,其实如果从效果来看,DBM仅仅是比DBN的鲁棒性更好而已,但是计算代价却。。。不忍直视。

    dbn是有向图,生成模型,虽然本身的训练复杂,但他的特性刚好可以用rbm来训练,相当于巧妙的结合了无向图与有向图,多有意思。所以hinton就在06年发了这么一篇吧。
    DBM的推导都非常漂亮,但是一时半会儿也说不清楚,不过DBM真的是个很美的模型!虽然现在貌似hinton老爷子都不怎么搞DBM,完全由他的Ruslan Salakhutdinov弟子再搞。但是这种将统计力学和图模型还有神经网络完美结合的模型,想想就让人很兴奋呢!
    其实回过头来看,dbn也是一个很好的模型啊,特别是sbn,在时序中效果不要那么好……

  3. 从古希腊神话中皮格马利翁的伽拉忒亚到中世纪巫术和达芬奇机器人再到Google的AlphaGo,人类从未停止对人工智能的幻想和探索。人工智能作为一门学科诞生至今已有60多年的历史,期间经历了2次高潮和低谷。今天我们即将迎来人工智能发展的第三次浪潮,可以想象,将会有一大批创业公司将诞生于新一波浪潮中。

    1,人工智能面临爆发

    根据CB Insights的数据,近年来社交媒体上人工智能的关注持续攀升。特别是从去年开始,人工智能更是迎来了爆发性的发展。人们早已被各种科幻电影进行了初步的科普,即使不理解人工智能的内涵也可以就相关的话题发表一些自己的看法。另一方面,全球范围内对人工智能的投资近几年也有大幅增长,2015年共有397起投资事件、23.88亿美元被投入到这一领域,与2011年相比投资额增长了近9倍。另有数据显示,其中近一半的融资发生在种子轮和天使轮,由此可见人工智能是一个非常火热的创业方向。投资者们正不断涌入这个领域,科技巨头们也大肆收购初创公司。

    2,人工智能爆发的原因

    从外部因素来说,首先,我们所处的信息环境和网络基础设施已经极大的改变。在现代社会,互联网、移动互联网、传感器、可穿戴设备等基础设施已经非常完善,我们生活在遍布世界的信息网络之中。可以预见,随着物联网的进一步发展,将有更多的设备终端被接入网络从而产生更大量的数据,人工将成为基础性社会资源。其次,社会对人工智能的需求大爆发。人工智能可以显著的提高行业效率进而提升社会的总体效率,医疗、交通、物流等各行业都迫切需要人工智能的发展。第三,人工智能的目标和理念有了重大改变,现在的人工智能更多的在研究人和机器如何融合,而以前的人工智能实际上是用计算机模拟人的行为。

    人工智能听起来很高大上,其实分解开来只有数据、算法和计算能力三个核心要素。从人工智能的内部因素来看,也正是这三个要素的发展促进了人工智能新一轮的爆发。

    数据是人工智能的基础,人工智能诞生至今一直没有发展起来的一个原因就是数据量不足,而今天在互联网和移动互联网上已经积累了海量的数据,并且每天产生的数据量依然在指数型增长。以微信为例,用户每天在朋友圈上传的图片达到10亿张,有了大量的数据才能为模型的训练提供原材料。

    另外一个因素就是算法的发展,特别是深度学习的应用。大部分人工智能的算法早就被发明出来,但是效果并不突出,而深度学习的横空出世几乎垄断了目前人工智能所有领域。与大部分传统算法相比,深度学习的效果随着数据量的增大有显著的提升,因而更大量的数据可以提高算法的表现,而传统的算法很难做到这一点。机器学习的算法需要人手工选取特征值,这很大程度上取决于经验和运气,因而算法的效果容易遇到瓶颈。而深度学习则通过计算机自动地学习一些特征,只要有更大量的数据就会有更好的特征被提取出来。利用深度学习,20到30层的神经网络已经很常见,更深层的网络具有更强的抽象能力从而产生更好的结果。

    深度学习增加了神经网络的层数,因此网络才有了更强大的特征挖掘能力,但同时模型的参数也随之大量的增加所以对计算机的运算能力有极高的要求。云计算和大规模GPU并行计算的发展为深度学习的应用提供了计算基础。当人们把原本用于游戏中处理高质量画面的GPU拿来运行深度学习算法后,计算机可以几百倍地加快模型的训练速度。目前来看计算能力还是一个瓶颈,离真正实现人工智能差距还很大,但是已经有了很大的进步,例如AlphaGo的计算能力是IBM深蓝的近3万倍。未来随着速度更快的芯片乃至量子计算的发展,运算速度会进一步提高,成本也会大幅降低。

    3,巨头的布局

    人工智能领域的玩家目前主要是中美两国的互联网巨头们。在美国,以谷歌、微软、Intel为首的大公司已经在这个领域进行了深度布局,除了自身的研发投入之外,他们还通过并购和投资进一步探索人工智能的应用。从2013年下半年开始,并购市场开始升温。据CB Insights的统计,从2011年至今AI领域发生了31起重大并购,其中谷歌以8起收购案遥遥领先,另外Yahoo、Intel、Twitter等也在并购市场大笔投入。

    另一条路径是对创业公司的风险投资。从2011年至今,在风投领域,Intel是最活跃的机构投资者。在Intel Capital的投资组合中有医疗健康领域的Lumiata, 机器学习平台DataRobot以及图片视频公司Perfant等等。谷歌也在AI领域投资了10家公司,包括Building Robotics, Clarifai,Kensho等等。谷歌在人工智能领域无疑是领先者,通过进一步分析我们可以发现在并购市场上谷歌主要收购的对象是人工智能的底层技术,而在风投市场主要投资的是人工智能在特定场景下的应用。同时,在谷歌内部,深度学习也被广泛应用。谷歌的许多产品如Android、Gmail、地图、翻译、YouTube等都有深度学习在背后支撑。

    除了在资本市场上频频出手,大公司和一些大学纷纷开源自己核心的算法,如谷歌TensorFlow、微软DMTK、Facebook的Torch以及CMU的Petuum和伯克利的Caffe等,这些开源的成熟的算法模块大幅降低了人工智能方向的创业门槛。而大公司将自己的核心算法开发出来主要目的是为了争夺下一个生态。

    在国内,BAT三家中百度对人工智能的布局最彻底。百度从基础层的运算平台和海量数据资源到技术层的核心算法再到应用层的无人驾驶和度秘全线发力,在商业化上主要通过百度数据工厂和百度大脑开放数据处理能力和技术服务。在具体的应用层面,百度在现有的产品上加入了语音搜索、图像识别、翻译等功能。在百度外卖、糯米等O2O业务中也加入了人工智能对订餐、配送等数据进行分析从而提高运营效率。百度在新兴技术产业,特别是无人驾驶汽车上也进行了长期系统性的投入。与百度不同,阿里在人工智能上更偏重基础层。一是与电商业务的融合,例如协助商家决策、智能客服等。另外就是与传统企业结合为B端提供数据和云计算的支持,典型的模式就是与上汽的合作。

    4,创业公司

    根据IT桔子的数据,人工智能领域共发生融资事件186起,其中大部分处于天使轮和A轮之间,由此可以看出目前这个领域的创业公司大多处于早期而跑出来的不多。

    从行业来看,人工智能在各个行业都有应用,涉及到硬件、企业服务、工具软件、教育、医疗、金融等。随着技术和基础设施的发展,人工智能将会像互联网一样与各个行业紧密结合。可以想象,未来人工智能将会成为一种基础设施极大的提高各行各业的整体效率。在行业细分中,硬件和企业服务是两个最大的方向,进一步分析我们发现硬件领域中机器人占了很大一部分比例,而企业服务中基于数据的行业解决方案和IT基础设施是两个最热的领域。在技术层面,计算机视觉和语音是相对比较成熟的技术,相关领域的创业公司也占了很大比例。

    5,创业公司如何切入

    在人工智能领域,中美之间差距不是很大。中国在计算机视觉、语音识别等领域甚至处于国际领先的地位。百度、科大讯飞的语音识别准确率已经突破95%,视觉领域也有多个团队突破了99%。从全球范围来看,互联网巨头基本上都在中美两国,只有中国和美国有健全的互联网基础设施,包括计算能力和海量的数据等,因而未来国内人工智能领域一定大有可为。

    人工智能的核心还是数据、算法和计算能力,在这几方面巨头们天然地具有优势,因而大公司一般都是从基础层开始发力。在技术层面,科大讯飞、旷世科技等已经在语音、视觉等细分领域占据领先地位,后进入者如果没有非常领先的技术优势很难实现大的突破。所以创业公司想要进入人工智能这个领域最好的切入点在应用层面,人工智能作为一种技术手段可以与很多行业结合从而极大提高效率。我们看好的方向主要是基于行业数据的场景化应用,举例来说有以下几个方面:

    · 金融:身份认证、智能投顾、大数据征信、贷款、风控、保险、资产配置、财经信息分析

    · 医疗:临床诊断、病患历史数据整合、最优治疗方案;虚拟医疗助手、健康大数据;监测院内感染、药物作用预测、移动药店、远程问诊等。

    · 企业服务:虚拟客服机器人、产品开发、供应链管理、品牌管理。

    · 教育:自动批改作业、个性化学习、智能辅导系统、互动学习环境、教学体系反馈和评估

    · 安防:反恐、安保机器人、人脸识别、智慧城市监控、不良图片监控、客流统计。

    另外,在关键技术节点上我们认为也是有机会的,包括图像、语音、人机交互等。在硬件领域,相关的核心部件还有待突破,如传感器、激光雷达等,这个方向也是有机会的。

    人工智能的创业项目对团队要求非常高。这些要求首先体现在技术上,团队需要在模型的搭建、参数的选择和调试等有很深的积累。另外需要注意的一点是很多创业团队都是科研出身,如何从科学研究转到商业实战对团队特别是CEO是一个很大的挑战。第二点在于数据,数据是实现人工智能的基础,也是唯一能构成壁垒的因素。所以对创业团队来说,能否拿到大量的数据是一个非常重要的点。第三,团队在业务层面也需要有很深的理解,技术需要与行业需求紧密结合而不能脱离业务实际,团队中需要有熟悉行业的成员。