Master alphago DeepMind TPU 量子计算机…Google到底做了啥

是的,公开了,豪取60连胜的围棋AI Master就是Google的深度学习alphago的升级版本。AlphaGo棋手Master战胜聂卫平柯洁60连胜 幕后工程师为黄士杰

但Google的深度学习,可真的不止是围棋系统。我们看看,Google深度学习都做了什么。首先,这是DeepMind 年底官方的总结:

网易新闻翻译,原文摘录如下

我们相信智能程序能够在从气候到疑难杂症组成的极其复杂、瞬息万变的系统中,帮助我们发掘造福社会的新科学知识。为了实现这一点,我们需要一个全能的学习系统,它能够从零开始建立自己对问题的理解,并用它的能力识别到那些可能会被人类忽略的模式和突破。这便是DeepMind长期研究任务的关注所在。

虽然我们距离实现接近人脑智能水平的目标还差很远,但2016年已是伟大的一年。我们在一些核心的潜在挑战上取得令人振奋的进展,并看到它给现实世界带来的影响。

我们很高兴看到AlphaGo代表项目组第二次荣登自然杂志封面。AlphaGo在古老的围棋比赛中击败人类的世界冠军李世乭。许多专家称赞这一突破领先时代十年。其中最让我们兴奋的还是AlphaGo在比赛中所展现出来的创造性能力,某些棋步挑战了千年的围棋智慧。AlphaGo在围棋上的表现给我们带来新的见解和启发,期待在2017年AI可以掌握更多游戏和比赛。更多alphago解读:www.yangfenzi.com/tag/alphago

在生成模型领域,我们也取得了有意义的进展,打造了能够自主设想结构和场景的程序。在我们基于PixelCNN图像模型的论文之后,我们关于WaveNet的论文展示了语音合成的新进展。通过创建原始波形而非拼接录音样本实现了世界上最自然的语音合成。我们正准备同谷歌一起将这一技术应用到产品中去,并对改进数百万用户的使用体验感到兴奋。

另一个重要研究领域是记忆,特别是将神经网络的决策能力同其对复杂结构化数据的储存和推理能力相结合的挑战。我们在差分神经机上的工作——这是我们在十八个月内第三篇登上《自然》的文章——描述了可以同时以神经网络和记忆数据计算机的模式进行学习的模型。这些模型已经能够掌握如何回答诸如族谱图和地铁线路图的数据结构等问题。这些进步让我们距离使用AI在复杂数据集中进行科学发现的目标更近了一步。

除了扩展这些系统的能力范围,我们还投入了大量时间来改进它们的学习方式。名为《用无监督辅助任务进行增强学习(Reinforcement Learning with Unsupervised Auxiliary Tasks)》的论文描述了将某些任务的学习速度提高一个数量级的方法。鉴于高品质培训环境对客户的重要性,我们向大家开放了我们顶级的DeepMind Lab研究环境,并与暴雪游戏合作,为《星际争霸II》开发AI训练环境。

以上所述只不过是冰山一角。要了解更多,你可以参阅我们发表在Neuron、PNAS等顶级期刊上的论文,以及在ICLR、NIPS等机器学习会议上发表的论文。看到社区中的其他人已经开始参照这些论文进行建设是令人惊奇的。围棋计算机程序在2016年下半年迎来复兴,此外我们还见证了AI和机器学习适用领域的不断扩展。谷歌宣告“云1.0 时代”终结,机器学习会让它称霸智能云市场?

研究给现实世界带来的影响也同样令人惊讶。我们谷歌数据中心的合作伙伴使用类似于AlphaGo的技术来开发数据中心冷却的新方法,使得建筑能源效率提高了15%。如果这些技术可以被拓展应用到其他大规模工业系统中去的话,将会产生巨大的环境和成本效益。我们与谷歌很多团队合作,将我们的前沿技术应用在产品和基础设施中,这只是一个其中例子。我们与英国两家NHS医疗团体合作将机器学习带入医疗领域,探索如何使用技术实现更好的诊断和治疗。还同另外两家医疗团体探索在移动应用和基础设置上的应用,以期改善临床一线的护理条件。

科技的积极社会影响并不只是致力于解决现世问题,同时还涉及算法与模型的设计、培训和部署。我们还很荣幸地参与创建人工智能合作组织“Partnership on AI”。它致力于以非营利的方式将民间社会团体和学术界领先的研究实验室联系起来,有助于在算法透明度和安全性等领域的建设。通过促进经验和洞察力的多样化,我们希望能够帮助解决其中一些挑战,并寻找将社会目的置于AI社区价值核心的方法。更多deepmind介绍:www.yangfenzi.com/tag/deepmind

我们仍然是一个处在发展前期的年轻公司,如果2017年里我们可以在以下这三个方面——算法突破、社会影响和道德最佳实践——同时有所进展,那么我们将以良好的姿态继续给科学和世界作出贡献。更多

但除此之外,仍然有一些值得我们注意,学习和研究的成果

Master alphago DeepMind TPU 量子计算机...Google到底做了啥

1、开源的AI系统。 DeepMind Lab

今天和一个游戏同行聊天,他们了解已经有游戏公司,使用Google 开源AI ,实现游戏中的模拟玩家,(俗称,陪玩机器人)。极大节省了研发成本,并且比传统研发的机器人表现更真实。

当然,实话说,开源的不止DeepMind,以下是infoq旧文整理的内容

2016年12月,Facebook宣布开源TorchCraft,让每个人都能编写出星际争霸人工智能玩家Bot。Facebook开源深度学习框架Torchnet与谷歌TensorFlow有何不同

2016年9月,百度正式对外宣布推出其深度学习开源平台PaddlePaddle。

2016年8月,Facebook开源了三款人工智能图像分割(Image Segmentation)软件,分别是DeepMask、SharpMask和MultiPathNet。

2016年7月,微软AI平台Project Malmo宣布开源。

2016年5月,亚马逊在GitHub网站将其擅长训练稀疏数据的深度学习和机器学习工具DSSTNE开源。

2016年4月,OpenAI开放其用于研发和比较强化学习算法的工具包GymOpenAI Gym。

2016年1月,百度硅谷人工智能实验室(SVAIL)宣布,开源其人工智能软件 Warp-CTC。

现在的年轻人,如果有志于从事这个领域的技术发展,真的有太多资料可以参考,有太多成功的经验可以借鉴。当然,对技术理解力的要求也越来越高,我个人认为,即便我年轻二十岁,估计也难以深入进入这个领域,智商实在是硬伤。谷歌发布智能家居:路由器/播放器/语音助理,手机Pixel/Pixel XL

2、TPU(Tensor Processing Unit)

2016年6月Google开发者大会上,公开了一款用于AI幕后的秘密武器,TPU。

我们熟悉的是CPU,每台电脑,每部手机的核心工作芯片,此外是GPU,图像处理芯片,但GPU强大的浮点运算能力并不只用于图片处理,实际上随着比特币等区块链技术的蓬勃发展,GPU在分布式计算上获得了极大的市场空间,我前段时间分享过一个观点,很多显卡厂家的业绩增长,靠的不是电脑显卡的诉求,而是比特币挖矿的诉求。

所以,比特币的价格波动,和显卡市场的需求,我个人认为,是存在正相关的。有兴趣的可以分析一下几个主要显卡公司的财务报表看看。

而TPU则更近了一步。

Master alphago DeepMind TPU 量子计算机...Google到底做了啥

一个简单的个人理解是,CPU是基于完全通用的诉求,实现的通用处理架构,GPU则主要基于图像处理的诉求,降低了一部分通用性,并针对核心逻辑做了一定的优化,是一款准通用的处理架构,以牺牲通用性为代价,在特定场合拥有比CPU快得多的处理效率。而TPU,则针对更明确的目标和处理逻辑,进行更直接的硬件优化,以彻底牺牲通用性为代价,获得在特定场合的极端效率。

所以,如果是cpu+gpu结构,AI系统无法获得如此快速的学习能力和神经网络的处理效率,而TPU将这一切极大加速,并获得了传统cpu难以置信的处理效率。 这也是基于学习对方同样的思路和算法策略,国产AI尚无法与Master相提并论的关键原因。

比TPU本身更可怕的是,Googl开始测试和线上运营环境完成更新迭代一款TPU,只需要22天。这一说法来自于Google官方博客。百度公开硬件基准DeepBench,推动深度学习专用芯片研发竞争

拥有这样的迭代效率,技术进步的速度就会让对手望尘莫及。

现在很多公众号和知乎热帖还在争论,在AI系统里,算法重要还是数据重要,嗯,你芯片跟人家比落后七年(一些观点说google的TPU领先同行七年,暂时引用不做评判),你说什么重要。

3、量子计算机

这算是旧闻了,2015年的事情了,Google赞助了加拿大的D-Wave公司,目前全球唯一的商用量子计算机系统,但去年一年似乎没有看到任何新闻出来。AlphaGo赢了围棋,但玩量子计算游戏人的直觉强过机器

量子计算机被认为是下一代突破性的计算机技术,但目前确实还有很多技术障碍,而D-Wave的量子计算机系统也仅仅是彻底牺牲通用性,获得某个特殊场合的极端效率,目前离可规模化商用还应有一定距离,但是在这个领域一旦产生突破,对人类的发展,对AI的发展,会具有无限的想象空间。MIT发现稳定量子比特的新方法,量子计算将迈向实用化

Master alphago DeepMind TPU 量子计算机...Google到底做了啥

想象一下,拥有一个比现在最快计算机快1亿倍的计算设备,是什么感觉。再也不会堵车:量子计算机的七大惊人颠覆

最后,这个争论,算法重要还是数据重要?

没有算法,数据再多也挖不出价值。

没有数据,算法再好也找不到价值。

当然,对于围棋,自我对弈的确是一种数据积累方法,但,第一,并不是所有领域都可以通过自我生成数据,或者说绝大部分领域,数据不会凭空出现。 第二,无视已有的,被证明过有价值的数据资源,是一种极大的资源浪费,而且缺乏有效数据时,算法有可能会误入歧途。

重申一下,深度学习并非万能,很多策略和博弈具有明确的最优解时,使用深度学习纯属脱裤子放屁,多此一举,现在很多人开始盲目追捧深度学习,要用深度学习包治百病,或者认为深度学习毫无破绽,都是非常莫名其妙的想法。

此外

1、昨天人民币突然暴涨,隔夜利率激增,央行不定期杀空,导致踩踏,这事挺有意思,嗯,坦白说,我也爆仓了,幸好玩的小。

个人认为,央行杀空只是为了控制节奏,防止提兑失控,但杀空之后,人民币汇率依然处于下行空间。

2、比特币突然暴涨,境内外差价巨大,然后刚看到又暴跌下来。外汇市场和比特币市场显著联动,有点意思。

中间确实存在套利空间,但稍微操作不慎就可能踩空。

投资需谨慎,多了解一下没坏处。

Master alphago DeepMind TPU 量子计算机...Google到底做了啥

旧文分享《深度学习并非最优方案》写于2016-03-14

今天写点技术,因为发现虽然科普技术的文章很多,但是各种误解还是蛮多的,甚至我自己都不能说可以完全置身事外。

打别人脸的同时,就要做好被别人打脸的准备。

于是,昨天这篇,我自己也暴露了对其他领域的傲慢和无知,谢谢各位粉丝的提醒,指出我的问题,今天第一个指出问题的是我的资深女粉丝,南洋理工大学物理专业的某萱博士,她给的链接里提到,电子竞技属于不完全信息博弈,和围棋这样的完全信息博弈是有区别的,目前不能认为人类已经完全攻克。

嗯,是的,相当部分竞技,和棋牌类项目,都属于不完全信息博弈,所以,这是另一个领域的事情,相信谷歌未来也会投入探索。实话说,我真心不认为,这个领域有多难,只是边界条件和判断规则有所不同罢了,但在这个领域被攻破之前,我还必须要提醒自己,不能过于傲慢,暴露无知。

那么,网上有一种言论,把深度学习当做包治百病的技术,这就不对了。

其实,正如我的另一个资深女粉丝,数学达人某迪女研究僧所言,围棋是一个NP项目,好吧,其实我也不懂NP是个啥东西,但是这里有个重要概念是,围棋是不能靠穷举,遍历,暴力计算来解决的数学问题,目前也不存在一步寻求最优解的可能性,所以通过机器自学习,总结特征规律,然后,给出局势判断,基于概率进行走子。

知乎大V云天外在分析alphago的时候有一个特别重要的观点值得分享一下,alphago最可怕的不是怎么找到下一步,而是怎么判断当前的局势,基于对局势的判断才能提到如何选择招数,实际上从前三盘看,alphago对局势的判断和人类完全不同;当然,人类本身也完全不同,在第一盘,第二盘,都暴露出一个明显的问题,在收官之前,各个职业棋手主播对局势判断的差异简直是天壤之别,只有柯洁展露了惊人的实力,能正确判断出局面优劣,其他很多老九段简直如在梦中。第三盘,人类和alphago在形势判断上难得达成一致,因为李世石实在被欺负的太惨了;而第四盘,alphago为什么突然进入崩盘模式,deepmind专家的解读是,在78手之后,alphago对局势的判断突然出了问题,直到87手才反应过来。AlphaGo之父戴密斯·哈萨比斯:除了下围棋,AI还要塑造人类未来

所以,关于昨天的那盘棋,各种阴谋论的背后,都是盲目认为围棋不会判断错误,这个逻辑是不通的,深度学习从来不是最优解,从来都会存在盲区和判断错误,如果不存在这些问题,机器就不用再学习,再提高了,人类也不用跟机器比赛了,直接观摩围棋的终点在哪里好了。 深度学习之所以能自我提升,能自我发展,就是因为有缺陷,有误区,才会不断提升,并逐渐逼近最优。

但,并不是所有的项目,都需要深度学习的。

很多项目,是可以暴力破解,直接靠强大的计算力找到最优路线。
比如,最简单的,井字棋。
比如,跳棋。

你真的没必要在这个领域搞深度学习,一步到达终点的项目有啥可学习的。

比如,不完全信息的例子,21点,基于概率的最优打法早就在网上公开了,随便搜搜都有,当然你按照最优打法也赢不了庄家,这是规则设计决定的。当然这里也有例外,就是纯随机发牌的最优解和获胜概率固然已有定论,但是如果基于系统有多少套牌和发牌记录去计算,又会存在新的动态最优解和动态获胜概率! 但这也是完全!可以!用!概率!算出来的!根本!不需要!深度!的!学习! 我的资深男粉丝,MIT博士后赖某,就精于此道。

在不完全信息的博弈项目里,必须承认存在这样一个局面,就是概率最优解不等于必胜解,甚至不等于胜率过半解,比如,在高明的赌场的规则设置里,你即便真的拿出了概率最优的打法,从统计规律来说也赢不了庄家的21点,人家的规则也是数学家设计的。在这种情况下,谈深度学习,谈挑战赌场,都是儿戏。更多深度学习解读:www.yangfenzi.com/tag/shenduxuexi

Master alphago DeepMind TPU 量子计算机...Google到底做了啥

下面说说麻将。

麻将是个典型的不完全信息的游戏,那么,基于概率统计,是否存在最优解路线呢,我们先简化问题,如果只考虑个人的手牌和明面的牌(已经打出的牌和对方吃、碰的牌),系统完全可以算出最高概率的几种胡牌可能,并将对胡牌影响概率最低的手牌打出。这种计算对于学过概率统计的大学生而言,并不是很高深的课题,作为应届本科生的毕业课题,都显得有些简单。 但这不是最终解。

引入第二个边界条件,赢牌番数,如果你可以有较高概率赢一把小牌,和相对较低概率赢一把大牌,就要计算风险收益比,选择综合风险收益比最高的路线,对胡牌概率的数据加上番数修正,这事其实也不难,你很容易得到一个修正后的最优解方案,这也并不是很高深的课题。但这仍然不是最终解。

第三个边界条件,出牌风险,所谓点炮。麻将复杂的地方在于,你不能只按照个人最佳胡牌概率打牌,必须通过观察注意到别人胡牌的可能和机会,并避免成为点炮的那个,(简单举个例子,如果上一个玩家出了一张二条没有玩家要,那么理论上你出二条应该是非常安全的。)而此时,就存在信息不完整的问题了。基于对方明面的牌和打过的牌以及打出的顺序,计算对方可能的胡牌范围,每张的胡牌概率,并自动修正你打出每张牌的风险值,和你胡牌概率再做修正,是追求自己胡牌,还是规避点炮风险。 实际上,由于玩家存在一定的自摸概率,所以即便自己胡牌概率不高,彻底选择规避风险也并不是一条可取的路线。 但这里就存在了一个致命问题,如果每个玩家,都是按照最优概率出牌,虽然这个模型复杂,但是系统理论上还是可以根据出牌记录和明牌记录计算出别人的胡牌概率和风险指数,而事实上是,人类并不会按照最优概率出牌,而且有可能打出从概率上讲不该打出的牌,而此时就会导致计算机造成严重的误判,这就是不完全信息所带来的特有的问题,而完全信息的博弈场面里,是不存在这种局面的。

所以,麻将这个问题,我认为是属于可以直接寻求概率最优解,但是受制于不完全信息的局限,概率最优解很可能遭遇对局者误导的一种竞技项目,在这个领域,深度学习未必能带来提升,而遭遇误导的风险依然存在。我的理解是,麻将完全可以做出概率最优的系统,但不代表概率最优就一定胜率最大,这是没有办法的事情,偶然性因素影响非常大,如果是很多人类和一台智能麻将计算机比赛,即便麻将计算机拥有最优概率,拿不到冠军的概率也是大于拿到冠军的概率,你只能说它拿冠军的概率在所有人中最高,但不代表这个概率会超过50%。

德州扑克同理,你完全可以设计系统按照概率最大化进行博弈,但受制于不完全信息,人类选手可以通过诈牌,或拿着大牌却故意装怂等手段误导机器,导致机器误判,在这种信息博弈层面,机器想要学习人类,还有极为漫长的路径。

在相当比例的不完全信息的博弈项目里,均存在确定的概率计算方法,在这样的领域,可以一步寻求概率最优解,压根用不到深度学习模式;而在相当比例的完全信息博弈项目里,也可以使用穷举,暴力计算来破解,比如国象残局,计算机已经进入上帝模式,这更不是深度学习可以达到的境界。只有进入到 不可穷举,不可计算的领域,比如围棋,才涉及深度学习的话题。所以,用深度学习包治百病,什么炸金花,斗地主,都是胡扯。

下面再说一下电子竞技,深度学习是如何进行电子竞技的学习的。

其实,一个通用的深度学习系统,你甚至不需要让深度学习系统了解游戏的设计理念,游戏的数值,是的,这都是他可以自学的范畴。让算法完全以一个玩家的角度,在对游戏的观察中学习和成长,我简述一下这里的逻辑。

第一步是,标注游戏的成分,这个还是要做的,相当于制定规则的边界。
首先让深度学习系统能标注和识别不同的建筑,兵种,操作,以及对应的资源的产出和消耗。这是一个基本模型,你必须让他知道游戏的基本构成和基本规则。
第二步是,设定胜利条件,让机器学习知道胜利的目标是什么。
第三步是,训练集,大量的训练集,也就是对战记录。
第四步是,基于海量训练集,总结特征和策略,用于实战,并重复三,不断提升。

这里可能存在很多思维上的误区,你说每个局面都是独一无二,计算机如何思考?这其实和围棋是一样的,正因为不能遍历,才需要机器自己总结规律,寻找规则。围棋实际上二十手以后,最多三十手以后,基本上机器面对的局面就没有棋谱里可以借鉴的案例了,计算机如何思考的,这就是基于大量训练集总结出的规律,那这个规律是什么,连设计师都不知道,这才是深度学习神奇的地方,计算机会找到它认为适合的规律,并在不断的大量训练集中调整和优化。

你说计算机不知道人类的策略和计谋,这其实也不重要,计算机只是基于局面和特征,进行局势判断和价值判断,选择下一步的操作策略,在局面判断中,计算机有自己的简化策略,你看上去界面有很多目标,很多建筑,很多兵种,很多数值,但计算机可以按照它认为合适的方式简化为几个重要指标,并针对性选择最佳的后续操作策略,当然,这中间可能有错误,但最后比拼的就是他的错误比你的少,比你的小,以及,他犯了错会总结,会提高。

深度学习总结的规律是否一定正确呢?实话说,真不一定,比如让深度学习去理解香港股市和所有市场信息的关系,也许他会得到一个丁蟹效应并作为重要策略,我们人类知道,丁蟹效应只是一个巧合梗,并不具备科学性,但深度学习,很可能会认为这是一条重要的价值判定策略。

在不完全信息的博弈中,往往存在一些偶然性的因素,深度学习的表现只能通过概率来说话,而看上去不具备碾压实力。但对技能和策略要求越高的领域,深度学习所可能达到的成果将越能体现出优势,这一点是毋庸置疑的。

希望此文,能澄清一些概念,别什么玩意都深度学习。

总结一下

1、深度学习不是最优路线,只是通过大量训练集,使自己趋近于最优路线。在这个过程中,误判和缺陷一定是不可避免的。过于神话深度学习没有意义。

2、对于可穷举,可暴力计算的博弈问题,以及可确定概率最优的博弈问题,使用深度学习属于典型的画蛇添足,脱裤子放屁。

3、在不完全信息的局面下,人类存在的一些狡黠特性是深度学习暂时无法攻克的(典型如德州扑克,下注本身的谋略),但不代表说这类问题是彻底无解的,如果深度学习掌握了更高层次的规律和特征,可以完全无视你的狡黠和计谋。(我个人认为电子竞技深度学习是可以到这个境界的,但需要谷歌或谁来证明。)

4、如果你数学足够好,不用深度学习也可以试着去研究赌场的漏洞; 如果你数学不够好,用了深度学习你也玩不过赌场请的数学家,洗洗睡吧。

5、我承认我昨天对不完全信息的博弈问题过于轻视了,谢谢粉丝们指正批评。

【文/曹政  “caoz 的梦呓”(微信号:caozsay)】

Master alphago DeepMind TPU 量子计算机...Google到底做了啥

——————— 氧分子网www.yangfenzi.com)精选评论 ———————

step2:人工智能是人类思维的延续和进化 随着自己孩子的成长 自己终有一天会离开人事 这能说是孩子毁灭了你吗 或者说 人类不会认为是自己毁灭了进化成人的猿猴 但那种猴子确实已经不存在了。

YX:GPU挖矿早就不赚钱了。现在只有ASIC还赚钱。甚至现在挖矿届主要的矿池现在都到了根据各货币实时报价自动转换币种的程度了。程序员在消灭价值洼地这上面演进的比金融界快太多。所以GPU价格跟比特币值因果关系应该是不成立的。

Trace:在我认为,人工智能就是一种生产工具,本质上与计算器、汽车、菜刀等没区别,它们存在的意义在于在各自的领域比人类高效,专业。当然,这一切有个前提,就是这个工具是人类可控的。试想一下,一辆失控的汽车就是一次灾难。【nature】深度学习巨头看人工智能界人才迁徙

朱可以@房至尊:这一个点上,建议大家逆向去想问题。Ai 深度运算肯定会带来不可估量的价值,但是这块技术和蛋糕,我们这些哪怕是做技术出身的,都无法轻易摸入门。那么我们又想吃这块蛋糕怎么办?我建议大家从AI 狗粮入手。做经济的Ai 肯定需要经济数据,做行为的Ai 肯定需要用户操作数据,而垂直行业那么多,都是值得现在开始准备数据以后来卖。所谓的渠道商、终端商、生产商三者都有价

Marility:反正没有卖假药送外卖……对于人民币,老大上次都发话了,今年目标是稳,所以肯定的是汇率会慢慢升高,到不会太高,不然泡沫加剧破解,那个不是老大的意思。相比人民币,我更关心比特币未来的走向,总在意识里面觉得比特币大面积的交易就和共产社会来临一般。

白朋飞:确实,微博塞红包基本是1块多一个粉丝,真的活跃粉,暂时没其他效果。很多人注意不到红包那个头像,不管很多微整形的和小huang片的打广告,感觉这块打广告的原因应该是huang片是刚需,有一点线索,大家就会点。

李小侠:我赞成王福重教授的说法 围棋是体力活 现在觉得alpha厉害 和当年图灵机破解德军英格玛密码 本质没有什么不同 还记得电影里十几个转盘转几个月的镜头吗? alpha只是变成了几十万个飞快的风扇 体力活而已 但是这种能代替一万亿个围棋手大脑计算能力的体力活的alpha 只是发掘了围棋的更多可能性 应用到金融领域 会帮从业人员作更有利的决策 像电影终结者那样毁灭人类世界云云 臆想而已

谢小总:最近人工智能真是被炒得危言耸听了,本来想写一篇吐槽一下,没想到曹大就写了,人工智能不是万能的,让人类自我毁灭更是无稽之谈。toolchainX:利用机器加速创新,发现新的创新点,大大提升试错速度,觉得恐怖,这是一生二,二生三,三生万物的技术啊!恐怖。

dingc:机器学习再厉害也无法突破规则,最简单的说说围棋,围棋有很多种玩法,但目的是圈地,这个是人类规定的,机器AI再怎么学习也是基于这个目的来做调整的;再比如人类按照自己的认知制定了物理学的规范以及发展方向,谁也不知道这个对于整体宇宙是不是真的有效,AI是无法突破这个认知范围的。

malon:本来想写篇长的,刚开头就懒癌发作写不下去了,其实深度学习这种弄神经网络的,比起90年代搞P=NP、图灵机什么的人工智能前辈在野心上已经大退步了,基本上放弃找rationale,只关心relationship,G的两个创始人的导师Winograd就是被传统AI弄得心灰意懒,干脆转行去搞认知理论和人机交互去了,现在深度学习网络的基础架构决定了会偶尔逗逼精分一下,比如下招臭棋什么的,不过这样的AI比起神一样的存在还是可爱一点吧。

iris:MOBA类型的多人电子竞技,深度学习应该很难突破。除了信息不透明外,多人协作随机性,再加暴击能伤害随机,还有个体操作不稳定性,导致AI很难根据学习集对形势有个准确判断。huoxin:我也仔细的研究了五盘棋,非常同意你对围棋计算机的能力还没有达到人类的水平的判断。有爱心的坏先森:基于Planning和negotiation的policy学习 就是来拷贝 撒谎 欺骗 掩饰 假装的非对称情况下人类社会的博弈属性的

途夫:对于曹大大的文章,坦白说我刚看到,延迟真高哈哈哈, 深度学习,最重要的不是算力,而是算法, 比如某狗的博弈,在扫描所有有限的可能性(神经网络)之后,根据已经有了的了解,这里称为库,来判断执行的可行性分值,根据这个分值,来进行相应的决策,所以,所谓的深度学习,还有很长的路要走,目前我们在github能看到的,大部分都是基于某种硬件设备的架构,或者开发框架,算法才是关键。 欢迎曹大大斯比,哈哈, 我想,这也就是为什么曹大大发这篇文章的原因吧!

synee:能不能让计算机整合各篇文献的结果并自动提供结果啊,多项研究的能不能自动meta分析给出一个综合考虑的结果。这样对人类知识积累的速度,和思考问题的深度应该会有很大的帮助。一个问题查文献往往需要半个小时,很费劲啊。有没有自动检索并给出结果的程序智能?这对这个程序的开发者是不是也很有用?会不会是搜索的未来发展方式?

羲吾:机器学习的优化过程和原理以及给出来的参数人类很多时候无法正常和直接理解。就如同多元回归分析里软件给出的系数,也无法知道到底确切什么意思,而且很多时候还不及在该行业有经验的人给出的这些因素的权重。

郭俊:有一点不是很同意,棋牌类游戏 不能因为经过深度学习计算,走那一步游戏赢的概率最大,结果因为运气因素输了,而否定深度学习。棋牌类游戏本身运气成分占很大,这种游戏的对弈必须对上百次 上千次才能评判谁的水平高。

刘胜新:虽然想说女粉梗 但这不是高质量粉丝应该做的事 我在想 现在的深度学习都是基于单个领域的 未来应该会把各个领域的深度学习系统统合起来 比如心理研究领域的深度学习系统和德州扑克学习系统的结合。xuanxuan:荣幸入榜,哈哈,曹老师喜欢围棋,迷恋围棋,所以说最近是局中人。搅局的阿狗出现,众说纷纭,看法虽不相同,但都出自于对围棋的热爱。曹老师文风我喜欢,看问题敏锐而透彻。不拖沓。荣幸晋升为粉丝,很开心!

匆:按照曹大这么分析,感觉将来大学一定会开一门课叫AI建模,而且估计还是计算机系必修课…… 李伟@聚会玩:如果alphago通过google大数据深度学习人类行为,那么通过图灵测试是不是很容易呢。胖檬头(Yuping):现实中打麻将还要考虑怎样合理的输,输得好看,比如和丈母娘打。这绝对是目前无法攻克的跨系统工程。

Riddle:电子竞技的学习还有个问题,人类的微操再厉害,也是需要时间的,从决策到执行是有延迟的,而且人很难同时操作大量单位,胜负手有时在微操的一两个点击之间。训练集必然是有人类玩家参与的对战,如何消除微操的影响?

·氧分子网http://www.yangfenzi.com)综合整理报道

氧分子网(www.yangfenzi.com)是关注互联网生态圈的科技新媒体

·氧分子网http://www.yangfenzi.com)延伸阅读:

➤ 从概念提出到走向繁荣:人工智能AI、机器学习和深度学习的区别

➤ Facebook 田渊栋评 DeepMind 深度强化学习的异步算法

➤ Google公布首份“开源成绩单”盘点最受欢迎8大深度学习项目

➤ Facebook围棋项目负责人田渊栋:DarkForest与AlphaGo仍有差距

➤ 曹政:AI时代,大数据、机器学习和AI纯谈概念没意义要回归场景

分享给您的好友:

您可能还喜欢…

4 Responses

  1. 揭秘谷歌DeepMind神秘的14位AI科学家说道:

    谷歌DeepMind,在伦敦大约有140名成员,致力于“解决智能”,可以说是目前英国最有趣的科技公司之一。

    然而,除了三位联合创始人之外,在谷歌DeepMind工作的其他员工是一个谜,可能是因为谷歌不希望冒险公布他们的相关信息,以免它最聪明的员工流向同样专注于人工智能领域研究的竞争对手之中,比如Facebook。

    DeepMind优秀的人才队伍可能是 谷歌去年一月份决定斥资4亿英镑给该公司的主要原因之一,所以我们认为是时候看看究竟是一群什么样的人在这里工作。

    DeepMind,成立于2011年,自从被合并以来,积极参与了大量的研究,它的一些以学术为中心的员工一直忙于发表人工智能领域的论文。 DeepMind网站上面详细介绍了这些学术论文以及参与其中的员工。

    为了确定最令人印象深刻的DeepMind科学家,外媒分析了网页上哪些DeepMind员工贡献了最多的科学论文。谷歌无法确认其他的作者是否就职于DeepMind,所以我们链接到可能的来源上。我们也直接联系了几位学者,但都没有了解到任何信息。

    14. Ioannis Antonoglou

    论文发表数量:3

    官方职位:软件工程师

    事迹:Ioannis Antonoglou毕业于爱丁堡大学,获得人工智能和机器学习硕士学位,于2012年加入DeepMind。

    13. Martin Riedmiller

    论文发表数量:3

    官方职位:研究员

    事迹:即将加入DeepMind仅仅9个月之前,Martin Riedmiller在德国弗赖贝格大学从事机器人和自主学习系统方面的工作。

    12. Mustafa Suleyman (联合创始人)

    论文发表数量:4

    官方职位:应用AI主管

    事迹:Mustafa Suleyman 19岁的时候从牛津大学辍学,成立了穆斯林青年热线辅导服务。他还担任过前伦敦市长 Ken Livingstone的策略官。

    11. Shane Legg (联合创始人)

    论文发表数量:3

    官方职位:联合创始人和高级职员研究员

    事迹:Shane Legg曾经是DeepMind的首席科学官,但是在谷歌收购DeepMind之后他成为了一名研究科学家。

    10. Charles Blundell

    论文发表数量:3

    官方职位:研究员

    事迹:Charles Blundell获得了伦敦大学学院(UCL)机器学习的博士学位和纽约大学计算机系统工程和软件工程的硕士学位。

    9. Danilo Jimenez Rezende

    论文发表数量:4

    官方职位:研究员

    事迹:Danilo Rezende因为发表的文章《机器人工智能:机器人汽车编程》( Artificial Intelligence for Robotics: Programming A Robotic Car)而获得了在线学习机构Udacity的证书。

    8. Shakir Mohamed

    论文发表数量:4

    官方职位:研究员

    事迹:Shakir Mohamed获得英国剑桥大学的博士学位,导师是机器学习系主任Zoubin Ghahramani。

    7. Demis Hassabis (联合创始人)

    论文发表数量:4

    官方职位:副总裁

    事迹:Demis Hassabis 是国际象棋神童,在13岁时以2300的等级分(在当时世界上14岁以下的人中排名第二,第一名是 Judit Polgár,他的等级分为2335,年纪比Hassabis大4天)而达到了大师的水平。他在其他游戏方面同样技艺高超,包括扑克。

    6. Marc Bellemare

    论文发表数量:5

    官方职位:研究员

    事迹:在Marc Bellemare的网站上,他写道他专注于“强化学习”,特别是“表示学习,值函数逼近,模型学习,探索以及我们觉得对发展一般胜任agents有必要的其他概念”。

    5. Alex Graves

    论文发表数量:6

    官方职位:研究员

    事迹:Alex Graves还与谷歌 人工智能大师 Geoff Hinton一同研究神经网络。

    4. Joel Veness

    论文发表数量:6

    官方职位:研究员

    事迹:Joel Veness在他的个人网站上写道,“对人工智能算法和计算方面感兴趣,特别专注于在线强化学习agents的可扩展性和高效性方法”。

    3. Vlad Minh

    论文发表数量:8

    官方职位:研究员

    事迹:在谷歌人 工智能大师 Geoffrey Hinton的指导下,Vlad Minh在多伦多大学完成了机器学习博士学位。

    2. Koray Kavukcuoglu

    论文发表数量:8

    官方职位:研究员

    事迹:2010暑期,Koray Kavukcuoglu在纽约做了三个月的谷歌实习生。他同样获得了纽约大学博士学位,研究专题是《非监督学习特征提取和物体识别多层级架构》(unsupervised learning of feature extractors and multi-stage architectures for object recognition)。

    1. David Silver

    论文发表数量:10

    官方职位:未知

    简介:David Silver获得了剑桥大学计算机科学学士荣誉学位和计算机科学硕士学位。他同样还获得了阿尔伯塔大学的哲学博士学位。

    他同样是英国皇家学会大学的研究员,在谷歌DeepMind工作的同时,他还在伦敦大学进行研究。

    他对许多研究工作做出了贡献,他的个人网站上列出了29项出版物。他构建的 所有应用列表可以在这里找到。

  2. 曹政:挖矿是个啥生意说道:

    严格来说,今天是一篇勘误的文章。

    Google到底做了啥

    昨天文章,很多内容来自于戴云杰童鞋的聊天记录,然后我对部分内容去搜索核实了一下,但发完之后,被指出依然犯了想当然的错误。关于GPU与比特币挖矿的话题。 戴云杰同学昨天就批评我这个观点是错误的,今天我注意到有评论也有高手指出了这个问题。

    发文章经常出错,被打脸,说实话有点不好意思,不过我还是那句话,这也是分享的意义所在,你勇于分享,被人批评,才会更清楚的知道自己的不足和错漏在哪里。

    GPU挖矿,我印象里是有的,那应该是上古时代的事情了,当然,昨天,资深网络货币老玩家沈晟童鞋说,现在某些网络币,依然有GPU挖矿的市场存在,但比特币早就没有了,戴同学说比特币矿机已经发展到了第九代,全都是基于ASIC的定制芯片,好吧,我彻底落伍了。

    我猜很多读者读到这里都是一头雾水,这说的都是啥,那么,我今天这篇文章,就是讲讲,挖矿和矿机的来龙去脉。

    呐,这就是矿机的真面目。我认识的一个90后,自称靠卖矿机赚了第一桶金,说多也不多,小一千万人民币吧。

    1、矿机到底是什么?

    比特币这样的网络币,以及莱特币等等,核心是去中心化,没有央行,没有发行中心,那么货币的发行是怎么实现的呢?是每个运营比特币的终端,基于一定的计算规则,并在总数可控的情况下,自动生成比特币。也就是,每个比特币的使用者,他的终端,都有一定几率,生成新的比特币。

    那么,这里并没有说,一定需要特殊的机器或设备,每一步具有计算能力的电脑,手机,服务器,理论上都可以成为比特币终端,并生成新的比特币,于是就有人开始思考这里的价值,如果能够低成本获得大量计算力,就可以获得超过其计算成本的收益,这就被成为比特币挖矿。也就是积累计算力,实现比特币产出。

    2、成本与平衡性。

    成本是什么呢?一是一次性硬件成本,所谓矿机;二是每次产出的能源开销,也就是电费。

    收益是比特币,但这里存在一个问题,就是比特币每年的发行总量,是可控的,是这个系统自己控制的,也就是说,如果系统中存在巨大的计算量,那么,平均计算量的比特币产出就会变得非常小,这就形成一个动态平衡,如果你的计算成本超过收益,肯定就没人增加计算量,挖矿行为就会被遏制;如果你的计算成本低于收益,就会有新玩家入局,挖矿行为就会增加。

    现在问题来了,如何降低成本。如果你的成本比其他玩家成本低,你就拥有竞争优势,并在其他玩家没有收益甚至负收益的情况下,保持赚钱。

    3、降低成本的策略

    第一条,黑招,通过木马,黑产去挖矿。

    不开玩笑,我遇到过这样的实例,一个朋友公司技术很强,做超算平台的监控安防,有一次就发现有木马入侵到超算中心(中国top几的大型科研计算平台),入侵后的行为就是上面跑了一个比特币挖矿程序。

    这种利用其它人的成本去挖矿,其实蛮多的。

    好像之前有人爆料,一个流行的使用频率蛮高的客户端软件,捆绑了一个挖矿程序,在用户不知情的情况下趁空闲偷偷挖矿。

    第二条,电费和用电成本。

    之前有说一个超级大的比特币挖矿基地,是在芬兰还是冰岛来着,是因为那里电费很低,而且因为气候寒冷,机房降温空调成本基本为0。这样就拥有了极大的比价优势。

    第三条,节省计算能耗。

    这就是为什么要定制芯片的原因,彻底基于比特币挖矿的算法,定制专有芯片,达到挖矿效率的最大化,和能耗的最小化。

    所谓升级到第九代矿机,大概就是这个意思。

    当然,这种芯片,除了挖矿,其他什么都干不了。
    顺便,因为某些政策原因,淘宝上已经不能搜索矿机,比特币等词汇;在之前,淘宝上卖矿机还是很火的,当时我记得还是一堆显卡和风扇插一起的那种,真的是上古记忆了。所以在比特币领域,GPU确实已经不存在任何使用价值了。

    那么最后一个问题,其实我了解比特币及其原理是很早的,当时一个比特币只有几块钱还是几十块钱人民币的时候,我当时还真的很看好这个模式,但从头到尾,我没买过比特币,没玩过挖矿,没搞过矿机,这个,我必须解释一下。

    比特币的好处是,去中心化,总量可控,我认为这两点是这个货币价值的最大体现,那么在这个前提下,其价值只与流通性有关。也就是,用的人越多,其价值越大。当然,另一个超级优势是,不可追踪。

    比特币几次爆发,主要是第一,非法交易,利用其不可追踪特性,比如北美比特币市场曾经最大的客户群体是毒贩和其他犯罪行为。第二,转移资产套汇,针对一些外汇管制的国家和地区。第三,保值抗通胀,比如某些欧洲国家经济崩溃的时候,货币大幅度贬值,取款困难,很多人就开始换比特币。

    所以当时有人问我东南亚区块链金融产品能不能做,有没有机会,我说,当然有,先做出来,做到好用,有口碑,然后等机会,等什么机会呢?等下一代索罗斯们暴打东南亚各国央行的时候,你肯定生意好的不要不要的。

    但说了这些,其实我不喜欢比特币。这也是我一直没有投资,没有参与的真实原因。

    为什么不喜欢?

    用计算量产生货币,其实也就是用能耗产生货币,我认为,这是反人类的设计,这种无谓的能耗对人类的资源是一种浪费。

    去中心化,总量可控,不可追踪,这三条我觉得都很好,但生成方式,能不能不要这么不环保,这么不健康。

    所以我一直期待有新的,更环保的方式的区块链产品出现,替代比特币。我实在无法忍受一个无谓消耗能源的货币产生模式。

    据我所知,目前其他几种主流区块链货币,似乎还是延续了这样的货币产出方式,是否有更好方式,或者是否有更好的产品,有深入研究的,烦请告知我。

    今天又接待了国内来的朋友,雾霾天,越来越多人考虑移民,考虑把家人迁往海外,这样行动的也越来越多。

    这个话题争论性很大,而且一不小心就会政治不正确。

    那我只想说一句,一百个理由,不如一次决定。

  3. TPU要比GPU和CPU快15-30倍,这是谷歌定制芯片一年后给出的答案说道:

    公司不太可能在自己的云端之外提供TPU

    2016年的I/O 开发者大会上,谷歌公布了自己研发的定制化芯片——Tensor Processing Units (TPU) ,并且透露已经在公司内部的数据中心使用了将近一年。该定制化芯片主要用来加速公司的机器学习算法,而且会优化公司的TensorFlow机器学习架构,但其并未透露更多的内容。

    日前,谷歌在一份文件中介绍了更多关于该芯片的详细内容和一些使用标准。如果你是一个芯片设计者,你可以在该份文件中找到TPU工作的原理所在。谷歌方面表示TPU的运转速度很快,但这都是基于公司的数据进行的评估。

    在运行谷歌常规的机器学习工作量的时候,TPU的平均运转速度要比标准的GPU/CPU组合(比如Intel的Haswell处理器和Nvidia 的 K80 GPU)快15-30倍。在数据中心计算功耗时,TPU还提供30-80倍的TeraOps/瓦特(如果未来使用更快的存储,这一数字可能还会提高)。

    值得注意的是,这些数字是关于在生产中使用机器学习模型的,而不是首先创建模型。

    Google还表示,大多数架构师为卷积神经网络(比如一种可以很好的识别图像的神经网络)优化了其芯片,但这些网络负责的工作量只占到公司数据中心总工作量的5%。事实上,大部分应用使用的是多层感知器。

    另外,谷歌还表示公司从2006年就开始研究如何在数据中心中使用GPU、FPGA和定制的ASICS(这对定义TPU很重要)。然而,当时并没有很多的应用程序真的可以从这种特殊硬件中受益,因为他们所需的大量工作量可以在数据中心已经有的硬件中进行处理。

    这种改变发生在2013年,公司当时预测DNN可能会变得越来越流行,这可能会使公司数据中心的计算需求增加一倍。如果用传统的CPU来满足这一计算量将变得很昂贵。因此,公司开始了一个优先项目,可以快速生成用于推理的定制ASIC(同时公司买了用于培训的现成GPU)。这样做的目的是,把芯片的性能提高10倍(比起GPU)。

    对于谷歌来说,公司不太可能在自己的云端之外提供TPU。但公司表示,其他公司可以通过所掌握的技术进一步的提高进入这一领域的门槛。

    随着人工智能、深度学习等技术的加入,行业里对芯片的要求也越来越高。像ARM、高通、英伟达这样的芯片公司在不断研发新的芯片。比如ARM此前推出了DynamlQ芯片,公司表示未来3年-5年,使用DynamlQ技术的Cortex-A系列处理器,其人工智能运算性能将提升50倍。而且可将CPU和SoC上特定硬件加速器的反应速度提升10倍。

    另外一些科技巨头也在研发自己的芯片,除了谷歌外还有苹果。苹果已经打算在Mac、iPhone中多采用自己的芯片,下一代iPhone可能使用苹果自己设计的A11芯片。除了国外,国内的华为、小米也在斥巨资研发自己的芯片。

    在硬件生产领域,芯片算是整个生产链条中较为核心的技术。这些大公司都想在这一技术上有所突破似乎也不难理解。

  4. 【英伟达成为谷歌的对手】谷歌 TPU 第二代PK英伟达胜算几何?说道:

    来源:The Motley Fool 作者:Harsh Chauhan 编译:文强

    【新智元导读】随着谷歌推出第二代既能推理又能训练的 TPU 芯片,搜索巨头和 AI 芯片商英伟达势必要决出高下。智能时代,英伟达和谷歌的前景如何?The Motley Fool 刊登分析文章,精辟总结指出两者强弱。

    为了在人工智能市场抢占更大的份额,英伟达和 Alphabet 这两家公司结成了意想不到的对手。到目前为止,Alphabet 一直在谷歌云平台使用英伟达的 GPU 加速其各种 AI 应用,但现在看来,这家巨头很是有意自己单独切入这块有着巨额利润的空间。

    就让我们仔细看看英伟达和谷歌在人工智能上的渊源,以及可能产生的影响。

    谷歌揭幕 TPU 第二代,在谷歌云平台构建机器学习超级计算机

    Alphabet 在去年谷歌 I/O 大会上推出了自己的 AI 芯片——张量处理器 TPU。TPU 被广泛用于各种应用,包括优化搜索和语音识别的结果,在 Alphabet 的数据中心里也有使用。

    与此同时,谷歌也在云计算平台使用英伟达的 Tesla GPU,帮助用户训练模型。例如,2016 年 11 月,英伟达就对外公布了,谷歌选择使用英伟达的 Tesla P100 GPU 和 K80 加速器为谷歌计算引擎(Google Compute Engine)和谷歌云机器学习用户提供 AI 服务。

    但是,在今年 5 月 I/O 大会上,谷歌推出第二代 TPU,并且通过云服务供用户使用,此举震惊了科技界。在今年 4 月发布的一篇官方博文中,谷歌表示 TPU 比当前的 CPU/GPU 速度快 15~30 倍。

    第一代 TPU 只加速推理,但现在第二代 TPU 新增了训练的功能。不仅如此,谷歌的用户还能通过专门的网络,在云端利用 TPU 构建机器学习的超级计算机。

    事实上,谷歌宣布自己已经成功将某些 AI 模型的训练时间缩短到几个小时,以前这样的模型用市售 GPU 需要一天时间来训练。

    到今年年底,当谷歌 TPU 推出时,这可能意味着谷歌和英伟达在 AI 芯片上关系的终结。

    英伟达:用开源来反击

    英伟达的回应是,谷歌在比较 TPU 相对于 GPU 的速度时,没有与最新的 Pascal 架构比较,而是选择了较早的 Kepler GPU。

    此外,英伟达也没有闲着,宣称即将上市的 Volta GPU 加速深度学习的性能会更好。

    实际上,英伟达不仅仅定位于硬件供应商,这家公司正在开发一个名叫英伟达 GPU 云(NVIDIA GPU Cloud,NGC)的服务,将配套提供 GPU(比如英伟达基于 Volta 的 Tesla V100)和英伟达深度学习库。

    英伟达采取了与谷歌不同的方式,专注将 AI 计算力作为平台即服务(platform-as-a-service)来提供。

    谷歌不会对外出售 TPU,而是用 TPU 驱动自己的Google Compute 平台。因此,英伟达目前还无需担忧失去谷歌这一客户。另一方面,Volta GPU 平台已经开始具有商业吸引力,亚马逊已确定在今年晚些时候 V100 芯片上市后立即购入。

    英伟达的另一个优势在于,谷歌还没有决定要开源 AI 框架,因此 TPU 的用户被锁定在谷歌的平台上。而英伟达支持各种不同的云平台,包括亚马逊、微软、谷歌、IBM,给了用户在云服务供应商(CSP)方面更多的选择。

    此外,英伟达 CEO 黄仁勋还出了一个狠招,他在公司官方博文中写道,要开源英伟达的深度学习加速器。“不需要再来人投资打造会推理的 TPU,我们这里免费提供——由世界上最好的芯片设计师设计。”

    相对于局限在谷歌云服务中的 TPU,英伟达的开源让其产品成了 CSP 巨头,比如亚马逊和微软的选择。同时,谷歌云平台还不如亚马逊和微软的云平台那么成功,而这也将限制谷歌云平台的发展。

    原文链接:host.madison.com/business/investment/markets-and-stocks/nvidia-vs-alphabet-in-the-world-of-ai-technology/article_396fbf11-de2a-54da-9bdc-97b7d74d7c3f.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>