扎克伯格打脸马斯克:人工智能威胁论就是发神经!

扎克伯格日前在接受Axel Springer Award颁奖时接受采访,在谈及人工智能威胁论,比如伊隆·马斯克等担心的未来机器将取代人类等担忧时,他认为这些担忧毫无依据 (not valid fear),简直就是发神经 (hysterical)。

文/硅谷密探(ID:SVS-007)

在被问及如何看待机器可能在很多方面比大脑更聪明,比如IBM深蓝战胜棋王卡斯帕罗夫等问题时。扎克伯格是这么回应的,

“人类制造机器就是为了让机器在某些方面强于人类,但是机器在某些方面超越人类不意味着机器有能力学习其他方面的能力,或者将不同的信息联系起来而做超越人类的事情,而这一点非常重要”。

而接下来被问道“难道科幻小说里那种(机器超越人类)的事情真的就不可能发生么?我们难道一点都不需要担心人工智能的安全性么?”

扎克伯格解释道:“我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。不管怎么样,我们要先造出飞机,再担心飞机的安全性。

我们过度担忧人工智能,将阻碍人工智能实际的进步。我们要认识到无人驾驶汽车可能可以帮助我们减少车祸的发生,而且人工智能系统甚至能够帮我们诊断疾病,所以因为担心安全性而阻碍人工智能的进步可能是最糟糕的选择,因为我们本来可以利用人工智能让世界更美好。”

怎么说呢,看到小扎说的这么中肯,小探眼泪都流出来了,不愧是长期坚持写代码的人。而已经不写代码的比尔盖茨显然是赞同人工智能威胁论的,他称自己对人工智能的快速发展感到担忧。

只能说,小扎打脸马斯克打得漂亮!顺便打脸比尔·盖茨!叫你不写代码!

实际上,人工智能的历史,就是打脸的历史。

我们先来聊一下曾经火爆一时的“奇点理论”,对,就是来自某度引入中国的那个“奇点大学”的未(qi)来(gong)学(da)家(shi)雷·库兹韦尔。

2001年,他提出摩尔定律的扩展定理,即(Kurzweil’s Law of Accelerated Return)。该定理指出,人类出现以来所有技术发展都是以指数增长。后来又搞出一个奇点理论,奇点理论认为很多技术处于指数增长中,如芯片的计算能力,DNA技术,数据的储存等等。他预测技术在突破一个称之为奇点的临界点后爆发性增长,在2045年左右会出现自己思考的人工智能。

毫无疑问这个理论就是垃圾,首先摩尔定律已经在失效的边缘,在一个可能失效的*理论*上的拓展的*理论*,虽然名字取得很牛逼,但这个理论的正确性的可能性,就和“隔几十米,我一个指头就能戳死他”一样大。

对“奇点理论”打脸的人不要太多,我们先说一个靠谱的。

计算机科学界泰斗斯图尔特•罗素, 加州大学伯克利分校人工智能教授,在2015年IJCAI(国际人工智能联合会议)上把奇点理论狠狠的批评了一顿,因为人工智能的进步不符合指数规律。

斯图尔特•罗素是谁?斯图尔特•罗素就是最早和霍金等人发表了署名文章号召大家警惕人工智能可能带来的威胁的学者。

这一言论引起了轩然大波,一时间媒体炮制出“人工智能的发展可能意味着人类的灭亡”等人工智能威胁论,在业内人士看来,这基本是玩弄文字游戏。

本质上来说,“一切皆有可能”,因为从概率角度我们可以证明王思聪可能会娶你。

想想是不是有点小激动?

对于这些媒体的过度解读,来自百度的科学家,人工智能领域的权威、斯坦福大学人工智能实验室主吴恩达(Andrew Ng)看不下去了,“人工智能毁灭人类论”就是“炒作”,在那些长期从事人工智能研究的专业人士看来,这项技术远远不值得担忧。

吴恩达,百度首席科学家,cousera创始人,斯坦福教授

吴恩达,百度首席科学家,cousera创始人,斯坦福教授

在他看来,无论是杀手机器人,还是变得比人类更聪明的电脑,都不应该是需要担心的东西——因为它们暂时还不会出现。

尽管在外人看来(说的是霍金么?),人工智能研究的是常人难以理解的高科技,也就是让计算机去模仿人思考的科技,但实际上,人工智能学界普遍的共识是人工智能实际上还处于非常低智的阶段。目前绝大多数的系统(包括神乎其神的深度学习神经网络)绝对还没有达到能够思考的程度。

吴恩达不愧是活跃在一线研究的人工智能研究者,霍金说“好疼”!

大忽悠:强人工智能即将实现

先来科普一个概念,强人工智能,弱人工智能。强人工智能的观点让机器真正的思考(can machine really think), 弱人工智能的观点是让机器智能的行动(can machine act intelligent)。

简单的例子,微软小冰读心术就是典型的弱人工智能,微软小冰并不是真正的在猜你心里想什么,而是表现出像在思考的样子,实际上他只是利用数据库根据你的输入,通过分类和归类,再排除和剪枝,计算可能性最大的人物的概率,逐步选出概率最大的人物。

而强人工智能,则是真正的像人类的思考和决策,目前的典型例子都是在电影里。

实际上,目前所有的人工智能领域取得进展的领域都是在弱人工智能上,愚昧的人类一度对强人工智能充满信心,历史却一次又一次无情的打脸。

比方说,在1962年的时候人工智能的先驱卡内基梅隆大学的西蒙教授(Herbert. A. Simon),经济学诺贝尔奖获得者,就曾断言:“二十年内,计算机将完成人能做到的一切工作。”

而你看现在,五十年过去了….

而在八年之后,也就是1970年,另一位人工智能的先驱,MIT的Marvin Minsky教授也曾大胆预言说:“在三到八年的时间里,我们将有一台具有人类平均智能的计算机。”

而你看现在,四十年过去了….

实际上在70年代,人工智能的发展进入停滞,进入了第一次人工智能发展的第一次低谷。

在80年代,“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。1981年,日本经济产业省拨款八亿五千万美元支持第五代计算机项目,其目标是造出能够与人对话,翻译语言,解释图像,并且像人一样推理的机器。美国国防部DARPA也行动起来,其1988年向AI的科研经费是1984年的三倍。

然后三十年过去了,能够像人一样推理的机器依旧没有出现。

这些过于乐观的预测或许是过度乐观,更多的打脸来自于姿势水平过低的媒体,比如像这样的曾经刷爆朋友圈的新闻:

电脑有了人类智能!计算机首次通过图灵测试

英国雷丁大学的测试表明,上周六人工智能软件尤金•古斯特曼成功让人类相信它是一个13岁的男孩儿,从而成为有史以来首台通过“图灵测试”的机器。

此次参加测试的共有五台机器,他们的目标是通过文本对话让测试者将其误认为是人类。如果这一结论获得确认,那么这将是人工智能乃至于计算机史上的一个里程碑事件。

首先我只想说,如果图灵先生泉下有知,他一定跳出来把他们骂个狗血喷头。图灵测试本质是个思想实验,他们搞得这个测试就是一个闹剧,基本和微信晒宝宝比赛一个性质。

一个人(C)询问两个他看不见的对象(人B和机器A),对象能理解C所用的语言。若经过若干询问后,C无法区分A与B,则A通过图灵测试。

图灵测试理应是人类的全体做为考官,其测试内容也不应是特定领域的问题,而且决不是通过一次比赛就能辨别出来是否具有人工智能的。

人工智能的发展,已经六十多年,已经经历过两次高峰和两次低谷,然而大部分人依然没有时间或者机会去了解,往往望文生义。

比如人工智能里的神经网络,进化算法,遗传算法等,这些名字听起来和人脑机制一样,实际上实现和人脑思维的方式差别非常大。

生物、医学、神经生理学家还没有完全弄清人脑机制、人脑思维是什么,计算智能想仿也没有明确的途径。用国内学者王飞跃的话说,“神经网络、进化算法、遗传算法,都是计算智能的核心内容,它们与人脑机制和人脑思维的关系,就像诗歌散文同现实生活与大自然的关系一样。”

也就是电影和现实的差别….

人工智能的发展依然处于非常初级的阶段,现状基本就是 ——

“没有人工,就没有智能”。

·氧分子网(http://www.yangfenzi.com)延伸阅读:

您可能还喜欢…

发表评论

邮箱地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>