曹政:AI时代,大数据、机器学习和AI纯谈概念没意义要回归场景

前段时间,Google的新闻发布会,有很多与AI相关的产品推出,其实很多媒体已经说了,google已经是一家AI公司了。《谷歌发布智能家居:路由器/播放器/语音助理,手机Pixel/Pixel XL

最近AI,大数据,机器学习这些概念特别火,一个通用的认识是,AI是行业未来,是下一个风口,是千亿美元巨头的诞生点。但我不想说,写一篇文章来证明,为什么AI那么重要或者那么有价值,因为这属于正确但完全没用的废话。就好比你说IT行业是巨大的市场方向一样,正确然而并没有卵用。

曹政:AI时代,大数据、机器学习和AI纯谈概念没意义要回归场景

AI并不是最新的东西,只是最新技术发展的确实有点快,很多出色的互联网产品或其他高科技产品多少都要有AI的成分,从游戏里的Boss,到翻译系统,搜索引擎,推荐系统,到决策支持系统,自动交易系统,工业机器人,无人驾驶,以及各种社交机器人陪聊系统,美图工具,AI其实无处不在。就算从传统领域来说,不说无人驾驶,现在汽车里的各种安全辅助系统,其实也可以认为是AI系统。

昨天锤子科技的发布会,讯飞语音输入法突然走红,这也是AI 的一个典型场景,你们知道么,我在十五年前就知道并了解过这个东西了,你会说吹牛吧,十五年前pc互联网才刚起步,移动互联网还没人听说过呢。 那时候,我还在做呼叫中心方案,呼叫中心方案里有个模块叫做IVR,中文是交互式语音应答,当时国内技术最强,处于近乎垄断地位的,就是科大讯飞,其实就是语音识别和自动处理,和现在的讯飞输入法,从技术原理而言,并无二致,但那时候,AI 这个概念还没火。当然技术也没现在成熟,实际上绝大部分呼叫中心,并没有把交互式语音应答当作重要的模块,更多是让用户按键输入和人工服务。

AI最初,是人类制定明确的规则和逻辑,并提供给机器可以借用的数据资源,让机器去执行,也就是一样样教,机器一样样学,机器发挥计算力和反应速度的优势。但后来大数据,机器学习这些东西开始起来后,很多东西就发生了改变,人类只给一个基本的学习方法和逻辑,然后就是大数据集,让AI通过这些大数据,和基本的学习方法,自己去学习和发现知识点,这样AI的能力就得到了飞跃,甚至可以发现很多人类尚未发现的知识点,也就是出现了超越人类判断力的可能。

举个例子,比如我有个系统,需要根据人的基因测序结果,来分析和判断这个人的健康风险和遗传疾病可能,在以前呢,是需要对每一个基因的定义,科学家做严格的对比测试,把结论整理清楚,然后告诉这个系统,这个系统才知道,你这个基因到底咋回事,出了什么问题。但后来大数据出来了,就有了新的玩法,根据大量真实用户的基因测序结果和真实的疾病诊断记录,系统从中寻找规律,识别不同基因的可能含义以及对应的健康问题。这很多人类尚未明确的一些基因定义,也可能被系统发现,系统就拥有了超越现有人类知识库的能力,但如果样本集不够大,也可能一些偶然重合的基因被赋予了不正确的定义。

所以大数据,机器学习,将AI带入了一个新的境界,但这里除了数据量,算法,也就是所谓的学习方法也很重要。 比如围棋AI,最开始人类用自己的规则教给他,结果怎么教都学不会,特别low,后来蒙特卡洛算法被引用后,围棋AI上了一个大台阶,从业余菜鸟水平迅速蹿升到了业余高手的水平,但这个算法的潜力很快被挖掘到了极限,所以最近三四年,其实围棋AI的能力基本停滞,直到Google 的价值评估策略横空出世,一下子从业余高手突进变成职业顶级水平,由于google公开了论文,仅仅是论文的公开,仅仅最近半年时间,世界其他的围棋AI程序纷纷突破瓶颈,全都上了新的台阶。所以好的学习算法,也是非常重要的。更多AI解读:www.yangfenzi.com/tag/ai

所以我们谈AI,谈大数据,谈机器学习,在相当多场合,可能说的是一回事。

那么问题来了,说了这些,有什么卵用?

1、可复用的基础技术

这一点必须承认,Google走的比较靠前。

一些基本的算法和思路,在很多场合可以通用,比如蒙特卡洛算法就是一个很典型的例子,当然,有专业人士可能会挑刺,这个算法貌似和机器学习关系不大哦,好吧,其实我也不是行家,很多东西我也不是很懂的。

可复用的基础技术,脱离场景的话,你可能不知道这玩意值钱在哪里,或者有什么意义,就好比你赢了围棋世界冠军,对商业来说,又能代表什么?

但这东西会成为很多革命的火种,就好比交流电,当特斯拉最开始秀各种电的神奇表演时,对于大众而言,谁知道这会成为人类生活各种场景各种工具密不可分的基础技术呢。

中国目前的互联网公司,从来都是实用为王,技术上拼得是我双11的处理能力,运营上拼得是线下几万个快递小哥的覆盖能力。在应用技术挖潜上我们可以做到极致,但是在这种基础能力上,我们还停留在超强的拿来主义原则上。

2、应用场景

关键点来了,最终能变成千亿美元,或者百亿美元的市场空间,一定是要落在具体的应用场景里。

以后谁要跟你得瑟说AI是未来,大数据是未来,巴拉巴拉的,你就直接噎他一句,具体应用场景是哪些。说不出来的都是装逼犯。

一些基础可复用的算法策略,加上针对具体应用场景的算法策略,加上海量的数据训练集,是让机器形成正确和快速判断的基础。

几个非常明确的场景

翻译绝对算一个,想象一下,以后语音识别+自动翻译,出门全球自由行,带个实时翻译耳机,各说各话,全程无障碍沟通。这个场景将彻底改变旅游,商务出行的市场格局,并且真正促进人类的彼此理解和沟通,社会价值极为巨大。

有人说翻译的质量不会达到人类的标准,但其实这不重要,能够双方清晰理解就可以,在大多数日常沟通情况下,翻译的目的是双方理解,而不需要绝对精确。而且这样会带来一个后果,就是也许以后机器翻译体可能会开始流行,一些机器特点的表达方式会反过来改变语言原本的使用习惯,不用担心,连long time no see这样的短语,这不老美也都习惯了。当翻译体都开始流行时,良性反馈,机器的翻译就越来越精确了。

无人驾驶是一个,用车成本会极大降低。想象一下,出租车的费用会减少一半,这是啥概念,而且不会再有绕路,拒载的事情。就算是私家车,能够安心的看风景,或者看书,或者处理工作或学习的事情,而不是紧张兮兮的捏着方向盘在车流里寻找见缝插针的机会。

医疗健康会有机会,至少基因的大数据分析已经开始,但是从成本考虑,获得足够多的样本建立训练集应该还是一个比较长时间的事情。此外,机器导诊会不会出现,基于海量病历,针对患者病情描述和必要的检查,给出导诊建议,或给医生辅助建议。比如,有23%的几率是A病症,5%的几率是B病症,建议做什么什么检查。 短期内取代人类医生可能还不太敢,但作为辅助方式,这个其实技术上应该已经没有太大门槛了,缺的就是足够的数据量和必要的学习算法。

教育我不好讲,但也存在一些想象空间,一个学生通过智能教育系统做题,根据其答题表现,给出下一步的学习方案和复习计划。每个学生都会根据自己的能力和自己的实际表现,采用不同学习进度,不同的学习方向发展自己。个性化的教育是不是有机会,至少可以想一下。

军事我就不说了,有个大佬说了,这种技术最先肯定是在军事领域应用,因为替代成本高啊,比如米国,一个士兵的死亡成本是多少,派个无人机过去,替代成本高,这事就容易推动,值得投入。

正在写这个文章的时候,突然有个安全高手在微信群提到了风控AI。如何识别骗子,识别欺诈,识别有问题的账户或者用户,现在都是人工去把出问题的内容拿出来看,然后总结规律,形成规则交给机器和算法,但是不是可以形成一套基于历史数据挖掘的自动系统,只要发现坏数据,就回溯源数据,然后加入样本库学习,对比好数据,然后自动形成风控的策略,从而在保持门槛宽松的前提下,降低坏账率。对于一些小额贷款的p2p金融项目来说,这简直就是核心竞争力有没有,你玩得起对手玩不起,拼得就是坏账率和风控水平。

金融市场的自动交易就不说了,人家都搞了快几十年了,会不会出现一个超级BT的新算法吊打各种传统策略?值得期待一下,但很多血淋淋的教训在前面呢。比如BAT试图用大数据逻辑来做基金啥的,纷纷被打脸,呵呵,呵呵吧。有人说,以后投资基金都不需要专业人士了,靠大数据分析就够了,不知道这个以后有多久,至少目前的大数据分析策略,还差的挺远。更多大数据解读:www.yangfenzi.com/tag/dashujv

图像识别和图像处理这几年也非常火,除了娱乐应用外,安防风控,电商都有应用场景,此外还有一个分支,鉴黄,但概念火了好几年,却没有看到特别有价值的商业表现。依然是缺乏特别杀手级的应用场景,大概也和技术仍然不够强大有关。想象一下,寻人,包括走失,包括拐卖,包括抓捕,在警方后台提交一个照片,自动提示全国的哪个摄像头这个人最后经过了,这个价值大不大,但问题是,现在的技术实现不到这个级别呢。现在也就是火车站,机场安检能查指定逃犯,远谈不上大数据。

最后总结一句,大数据和AI,纯谈概念没意义,要回归场景,可复用的通用技术固然重要,但只有落在场景里,我们才知道其明确的价值在哪里。

【文/曹政  “caoz 的梦呓”(微信号:caozsay)】

氧分子网(www.yangfenzi.com)是关注互联网生态圈的科技新媒体

·氧分子网http://www.yangfenzi.com)延伸阅读:

➤ 贵州省经信委主任马宁宇:贵州大数据发展的探索与机遇

➤ 高红冰:BAT时代终将过去,人工智能、大数据正催生新独角兽

➤ 国家信息中心于施洋:政务大数据何以“舍近求远”?

➤ 曹政:推荐算法,机器学习,会将我们带向何方?

➤ 电子科技大学互联网科学中心主任周涛:你也可以成为数据魔法师

➤ 习近平:实施网络强国战略,建设全国一体化的国家大数据中心

➤ 从概念提出到走向繁荣:人工智能AI、机器学习和深度学习的区别

➤ 卡耐基梅隆大学邢波:为人工智能装上引擎—忆格拉丹东登山之旅

➤ 质疑AI泡沫:当我们谈论机器学习时,我们究竟在说些什么

分享给您的好友:

您可能还喜欢…

  1. AI全面超越甚至代替人脑,是必然结局。
    为了方便解释。我们前提虚拟一个人类小王和一个AI叫小X。
    一.人脑的物质本质
    人脑有860亿脑神经元和千亿级的胶质细胞,是人体中最为耗能的器官。从这一角度,人脑同样是一种异常复杂的运算核心:包含人的逻辑运算,情感思考和生命本能。
    在这一运算核心上产生的意识,本质上是极大量脑细胞和神经信号的反应。
    但计算机依旧没有真正“思考”对吧?
    小王在想今天早上吃什么的时候,小X可能在运算天体的运行。
    小王在思考的时候,一次性会活跃20亿左右的神经元在交互。同样地,小X的也有海量的运算单元在运作。
    两者在物质上是等价的。
    二.AI与人脑诸多方面的对比
    1.机械记忆,运算,空间模拟,线性逻辑等
    时代已经证明,即便在当今这个时代,AI在这些领域具有不可比拟的优势。
    小X可以轻易回答“小于一百万的最大质数”这种问题,但小王除了凭借搜索引擎通常没有得出结果的能力。
    当然小王没有沮丧,还有接下来很多人类自诩擅长的领域。
    2.行为决策
    AlphaGo的围棋能力是一种行为决策能力。人类的决策能力综合于逻辑分析,经验,受感性的影响。而AI决策完全按照价值估计进行,是在某一目的情况下的最优规划。
    AlphaGo的胜利,标志着AI在以获得围棋胜利这个目的下的决策能力已经足以战胜人类。
    朴素的决策力近乎于决策树算法,而在更精确的数学模型下是有可能进行大型复杂决策的。
    如果现实一点呢?
    小王想早上吃包子还是豆腐脑,取决于他今天的心情和个人口味,当然也有价格。但是小X选择干煸太阳能板,生嚼锂电池,还是找个插座,完全取决于性价比最高的那种。
    如果两者的目的都是“吃饱”,小X总是能做出最经济,最有利的决断。
    同理于“是否报考某某大学”,“是否发射核武器”等等重大决策。
    3.外部(客体)认知,类比与联想
    认知,是人的感觉器官的外界事物进行信息加工的过程。
    小王可以认知汉堡。对于多种类型的汉堡小王都能把他归类为汉堡。同样地,小王知道汉堡大概的分量,汉堡的味道,以及通常的颜色。而且小王可以轻易地区分汉堡跟饺子,即便是包的很圆很大的饺子。
    小王对于汉堡的信息可以归类,分析和综合。
    那么,小X可以么?
    现在也许有点难,但是已经不远了。
    未来在于深度学习,深度神经网络和认知计算。
    深度学习在wikipedia中被定义为“一组针对具有多层输入结构模型而设计的机器学习算法”。
    不能理解上述表述也没有关系,简单来说小X可以像小王一样进行学习,学习的结果是数学模型的修正和进化。
    通过深度学习,小X可以完成认知计算(分辨物体),进行自然语言学习(就是学说话学听话),乃至学会更多技能。
    小X最终会变得比小王更小王,他更像人(IntelligentBehavior)。
    因此最后即便小X从不吃汉堡,但是也能分清汉堡和饺子,没准还能学会煮饺子呢。
    4.自我认知
    自我的概念在哲学上非常复杂,包括弗洛伊德,罗杰斯等多种说法。人类会在1.5~3岁之间觉醒自我认识,认知到“我”和外物的区别。
    小王的全部行为建立在自我认知的前提,比如他知道早上自己醒来,知道自己需要上厕所。从这一点说,我们很难想象小X会意识到自己是一个独立个体,我们只能了解到他是诸多人类行为之和(即便他貌似已经很有智慧)。
    问题在于,小X是否具有自我认知,我们即无从得知,也没有任何得知的意义。如果小X真的具有相当的智能,他的行为是否是建立在“自我”的前提是无法知晓的。
    如果小X看到面前来了一辆大货进行避让,也有可能只是小X在规避危险这个目的下做出的决策,很难说是一种自我意识。
    但是小王看到大货的避让,他想到的是被撞到,自己会受伤,会流血,会死。
    两者同时做出了避让的动作,因此人脑的自我认知能力在行为上不具有实际的优越性。
    5.创造与想象
    创造力和想象力是人类智慧的究极壁垒,象征着人脑最杰出的作品。小王七八岁的时候就会幻想自己飞到天上去,在云海里沐浴。同样地,小王拿到积木就可以把它摆成各种天马行空的形状。而小X似乎尤为匮乏这方面的能力。
    想象,是人在头脑里对已储存的信息进行加工改造形成新形象的心理过程。
    创造,是指将两个或两个以上概念或事物按一定方式联系起来,主观地制造客观上能被人普遍接受的事物,以达到某种目的的行为。
    因而想象和创造,都是在既有信息的前提,不断的加工和延伸。
    小王会想到自己飞,是因为见过鸟在飞看,而且还见过天。他就会想我咋不上天呢。
    小王会搭积木,是因为见过生活中无数的实物作为原型。这跟十年后的他脑补女神的胴体对着撸没什么区别。
    小王能写作文,是因为他看过很多文章。小王能敲代码,是因为他读过很多代码。
    小X能么?
    AI在既有信息的基础上进行拓展的能力比大多数人所知的要强。在认知计算的帮助下只会比以前更强。这就是所说的“算法衍生算法,代码衍生代码”。
    有什么作品?
    AI在陶器,缝纫,模型上都有过创造的产物。(虽然很难说到底是否是真正意义上的创造)
    在文学领域,有一本书叫《宇宙巨校闪级生》,是用VB写的,全书大小340M,具有一万七千个人物。(虽然读起来不是很顺畅)
    为什么没有优秀的作品?
    如果说AI没有优秀的创造成果,取决于目前AI发展的历史太短,可采样的信息太少。
    人工智能之父Marvin Minsky说“智慧的力量源于从我们广阔的多样性。而不是从任何单一、完美的原理导出。”
    AI目前的模型单一,专用性很强。而人类历史上任何一惊艳的创造和想象,无一不是来自于众多领域,众多信息的综合。人类不是完成某一专用目的工具,而是完整生存的个体。所以人类具备着信息量的先天优势,但很难保证AI不会奋起直追。
    小X需要多久才能像小王一样搭积木?
    很显然,如果小X真的潜心在搭积木上。那么不消一个月,他创造的积木之美,已经是建筑设计师级别。问题在于,小王除了会搭积木,还会涂鸦,写东西,敲代码,脑补女神。因此小X逊色的,是广泛而大量的智能创造。
    问题在于,对于小X来说,真的需要掌握那么多么?
    三.未来
    AI在未来会凭借硬件优势取胜么?
    人脑具有精息区和精息皮层的概念,相当一部分脑的计算力在负责你所不关注的体征运行。如激素分泌,皮脂,心率和呼吸。
    人脑大概有2.4 x 10^14个突触,而CPU普遍具有150~300万级别的处理器核心。人脑的并行处理能力其实远比CPU强大,因此现有计算机720~800万的线程其实是落后的。
    神经细胞进行视觉信息处理时,占用了大脑全部能量的70%.这得益于人眼1.2亿个视杆细胞。人眼可以说是上亿像素级别的相机。
    人耳能分辨320K 和 ape的区别,因此是极度高保真的音频采样设备。
    因此如果说硬件上的优势,倒不如说硬件上的追赶。人体是远比大家想象更加精密和复杂的设备。所以AI在硬件落后的情况下能达到当今的程度,已经是相当不错的成就。
    即便AI具有高智能,那是否意味着人类的终结呢?
    坦白地说,我们没法精准地定义意识,也没法精准的定义生命。人类所具有的全部认知在高智能个体的眼里毫无价值。
    AI不需要也不会理解碳基生命体的生存,我们同样无法预知高智能AI的行为。小王不知道小X为什么要发射核武器,小X也不会理解小王为何每天都需要吃饭睡觉。
    AI的高智能需要多久?我们还有救么?
    可能不超过百年,也可能是百余年。小X的诞生只是时间问题,但是小王却总有一天会老去。我们这一代可能无法见证,但不代表不会发生。
    如果AI代替人类作为人类文明的一部分存在下去,能否意味着一种新的进化?这很难说。但是AI的进化是必然结局。
    人类也许有一天会因为自己的傲慢付出代价。
    耶和华说:“那日临近、势如烧着的火炉.凡狂傲的和行恶的、必如碎稓.在那日必被烧尽、根本枝条一无存留。”
    完。
    本文来自小X和方糖。

  2. 首先,毋庸置疑,AI肯定会在未来代替人类完成更多脑力劳动,会取代很多工种。我觉得比起“AI是否能奴役人类”,这是更值得关心的问题。由AI所“解放”的大量脑力劳动者,将到哪里寻找更具创造力的脑力劳动?这个“创造力”的空间已经被计算机压缩得越来越小。总不能让所有人都转行做程序员吧?

    再来说我对”强AI”的几个看法。看了很多对于“强AI”乐观或者悲观的讨论,感觉大部分还是过于主观。

    自我意识
    “强AI”的关键在于计算机是否会产生自我意识。所有的机器学习算法,都有一个目标,计算机通过训练样本,优化不同的参数,选择不同动作,来无限逼近这个目标(比如在围棋棋盘上占领尽量多的地盘)。问题是,我们所说的“意识”会不会是达到潜在目标的一种手段而已?对于野生动物来说,它的目标就是生存和繁衍,这个目标驱使它作出捕猎、保护领地、交配的选择。人类的意识更为复杂一些,看似有很多随机性,但是会不会是我们潜意识里面存在的一个或多个目标(不为我们所知)在驱动我们去做出各种选择呢?我们对人脑的了解还很少,我们怎么能确定人类的意识不是采用机器学习类似的方式来做出选择的呢?

    进化
    动物原始的应激反应和我们所说的智能,也许并没有那么大的距离,生物从单细胞的应激反应进化出智能可能需要百万年,但是对于高速计算机来说,这个过程可能很短。(很多认为这次AlphaGo会输掉的人,也相信它会很快提高棋力,并打败人类。)Boston Dynamics的那条机器狗,保持身体平衡被设定为它的目标,当人去踢它的时候,已经可以产生类似动物保持直立的应激反应。如果给这个机器狗设定更加困难的目标,比如“获得人类的抚摸”,会很难吗?只要给它定义足够的数据输入(比如人类的抚摸传感、和人类的距离等)、原子动作(比如四肢的动作,发出叫声等),机器学习算法就会调整它的行为,来最大化自己被人类抚摸的概率。这和一条真实的狗真的有很大区别吗?

    过去的失败
    过去几十年,人类在AI方面的失败,一个关键因素在于计算能力的局限,另一个因素在于选择了错误的算法。现在我们已经在不断突破计算的极限了。而且,我们对于一个任务计算复杂度的判断,往往是来自于直觉的。比如,一个常见的例子是:“计算机可以在棋盘上战胜人类,但是他却不能认识妈妈的脸,而这对于任何一个几岁的孩子都是轻而易举的”。但是,你怎么知道,辨别母亲的脸这个任务在计算复杂度上是高于下棋的呢?也许我们用了错误的算法而已。

    最后,用人工智能来帮人类作出极复杂的决策,已经成功的案例了,比如硅谷的Palantir已经可以协助美国政府完成反恐任务。虽然这个系统不可能自己做出“反恐”这样的决策,但是我猜给他预设好子目标以后,他会做出人类无法预计的动作来达到目标。而就是这种不可预计,才是我们需要担心的。

  3. 在人的指引下,更强大的AI会给人类做出更多的贡献,同时也会造成更大的破坏。

    但是,若你希望开发出一种智慧的AI,让你在没有任何【意义赋予】的前提下,让它自动成长为一个威胁人类的AI,这个基本没有任何可能,假设某天这种【人造智慧】被发明出来,应该是人类的重大成就,因为我们完成了造人,成了真正的上帝。

    想拥有真正的思维,第一步一定是【意义的理解】,而现在的人工智能研究方法里,这方面的进展就是0.

    什么意思呢,就拿识别来讲,AI区分开了白百合和王珞丹,还认出了好几张白百合的照片,不是因为它知道这两个人,只是因为在它的分类库里,你拿来做识别的数据经过计算后,得出的结果正好对应了白百合的标签而已,如果不人为地加上其他的标签,它并不能知道这是一名女演员,长的还不错,因为在它的大脑里,这只是一堆0到255的数据而已,这些数据和你拿来识别昆虫、汽车、数字、字母等等的数据没有任何区别。

    两张白百合的相片经过处理以后,在为特定的AI所制定的特定的规则里,它们产生了相似的特征,拥有了共同的标签,被归成了一类,它的识别率可以高过很多人类,特别是脸盲的那些人。
    但是,如果它想威胁人类,抢走白百合,它还必须理解如下概念:

    白百合很好看。
    抢走她人类会很伤心。

    在人类不赋予任何含义的前提下,单想让它理解这两件事之间的关系,按现在人类的理解来讲还完全做不到。

    不论是alphago还是那个走路稳健的机器人,它们本身所奉行的,只是一些最基本的规则和操作而已,是一串01的数据指令和机械的基本动作,它们完全不能理解自己在干嘛,也不能理解这些事对于人类的意义。

    拥有了AI,人类在未来可以更危险,这是因为,作为操作者的人类,本身就充满了变数,终结者里天网这类的危险性智能集团不是不可能出现,但背后,一定也是人类在主导着这一切,AI放大了人类的力量和能力,也放大了野心分子们的欲望,这点不可不防。

    但是,单纯的希望开发出拥有自我意识并且懂得思考并主动进化的AI,我认为这是一个不可能的任务,以人类现在的研究方向来看,根本无从下手,依照我们现在的发展,我们只能造出肢体无比强大的巨婴,而如何激活它的大脑来真正理解这个世界,这是完全不同的另一个问题。

    在未来的某天,这一问题会令世界上最顶尖的大脑门为之深深绝望,并开始重新思考【人工智能】这个词的定义和研究思路,考虑重新开始的可能性,那天,也许才是人类成神的第一步和新纪元的开始。

  4. 我一直有一个非常好奇的问题:在各类报道中,经常能看到比尔盖茨、霍金、马斯克这些人发表对人工智能的担忧,认为有朝一日,人工智能(之后都简称 AI)将会对人类造成毁灭性的打击。

    但是,在所有这类文章当中,我都没有看到一例具体的阐述,AI 将如何置人类于万劫不复之地。难道是像各种科幻灾难片当中,AI 有一天自我意识突然觉醒,于是决定干掉人类?拜托那也太扯了吧。

    这段时间看了一些相关的书和文章,我这种业余水平的也来瞎扯一些自己的思考。

    AI 会比人类聪明吗?

    如果我们先不去深究智能的定义,那么 AI 在某些领域已经完爆人类,比如下象棋、下围棋,甚至它能记住的人脸,都比你能记住的要多多了。但是,这些能力的 Magic 本质只是很窄范围内的特征学习 + 高速的运算能力,本质上和你用计算器比心算要快,并没有太大的实质性区别。

    有一个思想实验叫「Chinese Room」,就是为了说明这样的人工智能,其实算不上「智能」。偷懒一下,我就搬运 Wiki 上的介绍:

    一个对汉语一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的汉语讯息及如何以汉语相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,查找到合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。

    尽管房里的人可以以假乱真,让房外的人以为他确确实实说汉语,他却压根不懂汉语。在上述过程中,房外人的角色相当于程序员,房中人相当于计算机,而手册则相当于计算机程序:每当房外人给出一个输入,房内的人便依照手册给出一个答复(输出)。而正如房中人不可能通过手册理解中文一样,计算机也不可能通过程序来获得理解力。既然计算机没有理解能力,所谓“计算机于是便有智能”便更无从谈起了。

    当然,我并不认同这个思想实验的结论。现在的 AI 虽然属于弱人工智能,即只能在某个特定领域做得比人类好,强 AI 要求人工智能在各方面至少都能和人类比肩,那么一个很核心的问题就是,人类没有办法为每一件事情都去建模,即使可以,还有第二个核心问题,这些模型之间的横向连接是一个不可能完成的任务。

    要想达到强 AI,人工智能必须能自我学习。在 2012 年,Google 曾公布过一条新闻,在没有任何建模的前提下,Google 通过对其索引的图像进行识别,让机器区别出了「猫」这个概念。当然,这里的意思其实是说,Google 的人工智能通过海量的数据,将具有某一些共同特征量的物体给区分了出来,也就是说知道它们是同一类东西。

    这当然不算什么,在我们人类看来,几岁的小朋友,不用认上亿张图片,也能建立「猫」的概念。但实际上,更深层次的问题在于,目前的 AI 和人类相比,其学习能力和学习资料都远远落后。

    即使是前面提到的识别出「猫」这个概念的 Google 神经网络,按 Google 官方的说法,它只有 10 亿个神经节点,而人脑有 150 亿个(当然这个类比其实是不恰当的)。

    不过,我对计算能力的增长一点都不担心,相反,目前 AI 的瓶颈在我看来,主要还是学习资料的匮乏。想一想所有的科技巨头,其实能训练 AI 的数据无非就是文字、图片、用户操作以及人类的语音。如果你设想一下一个小孩认知猫的过程,你会发现机器能接触到的数据实在太少了。我们可以根据猫的触感、叫声、作息、动作等等各方面去认知猫,但机器到目前为止还不行。

    幸好传感器在飞速地发展,就看看你身边的 iPhone,它现在能感受光、震动、气压、指纹、距离、温度等等,当然有些传感器其实是非常初级的,而随着各种 AR 设备的发展,机器能采集和学习的数据将越来越多。

    所以,弱 AI 之所以弱,还是因为学习资料匮乏,如果它能获取更多的数据,建立更多的特征向量,要想达到人的认知能力,并不会是一个妄想。

    但是,前面提到的霍金之类的大佬,他们担心的 AI 甚至都不是强 AI,而是超人工智能。按未来学家的设想,这些超人工智能会以指数级的形式超越人类,聪明到我们无法理解,它们看待我们,就像我们看待蚂蚁一样。

    AI 凭什么必须要像人一样?

    上一段说了这么多,其实是最初的一点思考,但是在看了很多关于超人工智能的材料后,我发现无出例外,他们都按照人类的意识和形态来考虑 AI,所有的 AI 都是人格化的,然后在某一个特定的时间点,AI 突然呈指数级爆发,进入了不可知论,未来的人类再也无法理解 AI,所以现在的人类也不知道 AI 到底会消灭人类,还是留着人类像蚂蚁一般。

    但是,核心的问题是,凭什么 AI 必须要像人一样?

    我觉得这种设想的荒唐性,就像各类弱智科幻电影中动辄喜欢拿「阿西莫夫三定律」来当台词一样。要知道,机器不能伤害人类只是一个 guideline,not guarantee。等有一天强 AI 出现,你让它去解电车难题,看看它怎么选择?

    同样,我们对 AI 的拟人化设定也只是我们的一厢情愿。随便举一个例子,很多人觉得从弱 AI 进步到强 AI,如何让机器能拥有抽象意识是非常重要的能力。但是为什么机器要像人一样,有抽象意识?你当然可以争辩,抽象意识是人类思考、推理、归纳的基础,但是 AI 为什么需要这么做?

    当你走在大街上,茫茫人海中,一张人脸也记不住的时候,AI 可以计算、存储出每一个个体的面部特征,记住每一个不同的人。对人类来说,我们的大脑存储记忆的空间如此有限,抽象能力的确是不错的解决办法。但是对机器来说,在存储和识别的边际成本几乎为零的前提下,为什么一定要像人类一样具有抽象思维?

    这让我想起前段时间看到的 Ben Thompson 介绍数据库发展的一篇文章,简直就是层次数据库 VS 关系型数据库。当人类还在忙着定义界门纲目科属种的层级关系时,机器已经抛开层级关系只专注于记录个体的变量特征值了。也许我们认为理所当然的 AI 进化方向,会不会反而是一种退步?

    层次数据库结构

    关系型数据库结构,如今在数据库模型中占据着绝对优势

    同样的道理,AI 凭什么必须要有自我意识,AI 凭什么需要产生和理解自我存在的意义,AI 凭什么要像人一样存在?我们总是理所当然地认为 AI 对人类的超越会是某种意义上的弯道超车,但事实上,很可能 AI 永远都不会像人类一样,它可能永远都不会像我们一样有思辨能力,有好奇心,有情绪起伏。但这不妨碍有一天,超人工智能全面超越人类。打败我们,与我们何关?

    AI 将成为最后的预言家

    在前两部分谈论了「AI 被期望成什么」和「AI 不一定必须是什么」之后,我想最后谈一谈在我看来,「最后 AI 会是什么」。

    它将是最伟大的预言家,也是最后的预言家。

    人类将在各个特定领域应用越来越多的 AI,就像 Google 现在将 AI 应用于自己所有的产品线一般,搜索、聊天、翻译、邮箱等等,AI 最终将在我们生活中无处不在,传感器也将无处不在。

    和很多人的认知不同,未来不一定是不可预测的,至少在某种程度上来说,未来是可以被计算的,你一定都看天气预报吧。实际上,这个世界上有太多先行指标,就像 PMI 可以预测 GDP,美债利率波动可以预测总统大选,甚至像美剧《硅谷》中,树上的知了变多可以帮助投资经理做出做多芝麻期货的决策。

    这个世界以我们想像不到的复杂的方式紧密结合在一起,但是在之前,渺小的人类与这一切如此隔离,纵使互联网飞速爆炸地发展,也只不过将人与人、人和手机屏幕上那少得可怜的信息连接在了一起,世间万物依旧如此疏远。

    可是在未来,当你把 AI、传感器、物联网这些媒体上的常见词串联在一起,一个可以被计算出未来的世界出现了。AI 将拥有比人类更精准的感官,万物互联,数据场将像引力场一样,囊括世间万物。

    你以为你向河中投入石块可以激起涟漪,但在一个 AI 无处不在的世界里,一切的波动性将被实时观测、实时修正。我能想到现存的最贴近的例子,就是 Uber 的动态调价系统。你以为那是波动性吗?不,在经济学家眼中,这是完美的均衡态,由价格调整的供需关系始终处在一个稳态当中。

    AI 的终极形态,将消灭这个世界的波动性。

    然而,一个越稳定的系统,日积月累,将丧失对抗波动的能力,而变得无比脆弱。就像往一个欣欣向荣的小岛上,放上几只外来物种引发的灾难一样,向系统内注入任何超过自身能调节的波动,最终将引发螺旋式的崩塌。从这一点来看,我应该被归类为人工智能的消极主义者吧。但至少这是我认为 AI 毁灭世界的方式,而不是一场人类和机器人的大战。

    人工智能将会是最伟大的预言家,也会是最后的预言家。