特斯拉马斯克:人工智能危险超核弹

人工智能公司频频获得投资,马斯克认为类似“终结者”的场景可能会变成现实。

特斯拉马斯克:人工智能危险超核弹

氧分子网科技讯 特斯拉创始人马斯克也是高科技奇思异想计划的追逐者,比如他正在开发火箭发射技术。但是对于另外一个高技术——人工智能,马斯克日前却表示,必须谨慎对待,因为人工智能的破坏力可能会超过核弹。

马斯克关注着关乎人类未来的各种技术发明,他认为太阳能和电动车将是未来的主流,另外人类应该尽早到火星上建立家园。不过,马斯克也认为,一些高技术,会给人类带来危险。

周六,马斯克在Twitter发布一条微博。他写道:“Bostrom撰写的《超级智能》(Superintelligence)一书值得一读,我们必须对人工智能超级谨慎,它的潜力可能比核弹还危险。”

这不是马斯克第一次谈到人工智能技术。六月份,他在接受美国财经电视频道CNBC采访时表示,他很严肃的认为,有一天类似“终结者”这样的人工智能场景,可能会变成现实。

据报道,马斯克甚至投资了若干家人工智能技术公司,以保持对这一技术走向的及时了解。

人工智能技术已经成为科技行业关注的另外一个前沿科技领域,许多未来学家看好这一技术的前景,比如谷歌(微博)的RayKurzweil则认为,人工智能未来将会扮演更加正面、积极的角色,甚至给人类生活添加一些浪漫的味道。

马斯克推荐的作家全名NickBostrom,如果关注此人有关人工智能的作品,就会发现马斯克的担忧并非空穴来风。

2003年,这位作家曾经发表一篇论文,他指出,人类实际上已经生活在计算机模拟的世界中,另外科学家已经开始寻找一些“痕迹”,证明我们周围的世界,并不是我们想象的那样真实。

资料显示,今年三月份,一家名为VicariousFPC的人工智能技术公司,获得了4000万美元的投资,投资人中就包括了马斯克,其他另外一位重量级投资人是Facebook掌门人扎克伯格,另外在电影《乔布斯》中扮演乔布斯的美国名人阿什顿·库切也做了投资。

谷歌是硅谷另外一家高度关注人工智能的公司,今年二月份,谷歌斥资4亿美元,收购了一家名为“DeepMind”的人工智能公司。

您可能还喜欢…

1 Response

  1. 面对 AI 发展可能产生的伦理和社会问题,微软提出了 AI 发展的六大原则——公平、可靠和安全、隐私、保障、包容、透明和责任。为什么 AI 发展要守原则?AI 的偏见从何而来?为什么我们必须要理解 AI 做的任何决策,并确保由人类来监督这些决策?微软全球执行副总裁沈向洋博士对六原则中涉及的 AI 的偏见、透明度、问责制三个问题进行了思考,让我们一同领悟~

    尽管人工智能在近几年取得了巨大的技术进步, 但其实依然还处在婴儿期。正如一个年幼的孩子会模仿周围人的行为,人工智能也正在向人类学习。因此,作为人工智能“父母”的人类,必须确保把反映和尊重我们周围世界的价值观和道德观贯穿于人工智能产品和服务之中。

    这就是为什么我们今天必须非常深入地思考人工智能的道德问题。这些道德规范将塑造我们的未来。要负责任地建立人工智能系统,就必须要首先教育我们自己。因此,我们出版了 The Future Computed(《未来计算》)一书,来讨论人工智能在社会中的角色。书中阐述了我们认为应该指导人工智能发展的六原则。我最近思考了其中涉及的三个特别重要的问题——偏见、透明度和问责制。

    首先,说说偏见。人工智能系统中偏见的形成可能是由于人类自己甚至也没有意识到的来自根深蒂固的文化影响。在训练人工智能系统的时候这些社会偏见就可能会导致对数据集在个人的性别、肤色和年龄假设。

    即使对数据集使用无误,要确保人工智能系统能够满足每个人的需求,有时挑战却可能是数据不足,有时是模型和算法不充分。

    人工智能反馈给我们很多社会中存在的偏见。但在多元化的社会中,肤色、口音等各种不同的特征和差异也让我们意识到,满足所有人不同的需求是相当复杂的。尽管我们在不断发展、从教训中学习,我们依然有很长的路要走。

    如何在编写计算机程序时就不带有和传播这些偏见呢?这是一个比技术本身更大的问题。而我们不会放弃,直到找到确保对所有人都公平的方法。

    除此之外,我们必须教导人工智能回答“为什么?”。人类的孩子会自然地问:“为什么?”机器不会。透明——确保我们能够理解并看到人工智能所做的决定——这是一个以伦理为核心的被称为“可解释的人工智能”的范畴,换句话说就是能回答“为什么?”。

    想象一下,医生从人工智能算法中获取的数据显示你的家人得了癌症。你会立刻想知道为什么。依据是什么?你会希望医生解释是如何基于肿瘤大小和颜色的数据来得出这个结论的。并且你肯定还希望医生能用一种你能明白的方式来解释。

    我们需要了解人工智能是如何得出某个结论的,而不仅仅是一个在没有上下文或解释的情况下输出数据和信息的“黑匣子”。人类需要知道这背后的原因。

    最后,除了能够自我解释外,人工智能还必须担负责任。问责制意味着我们不仅要理解人工智能为什么会得出这样的结论,而且要确保人类有直接责任来监督人工智能做出的重要决策。

    维护问责制的一个简单方法是创建的人工智能系统不能完全自治。人工智能只是提供了人类用于决策所需要的信息。例如,在发射火箭之前,需要有人按下红色按钮。在做出治疗或手术的决定之前,需要医生征询你的同意。复杂的洞察力由人工智能提供,但最终的决策要由人类做出。这样的人工智能系统就可考虑应用在文化敏感性高、潜在后果影响重大的场境中。

    在微软,我们已经为这些挑战做出了很长时间的努力。我们的研究人员建立了公平、负责,和透明的机器学习模型。今天,微软研究院的科学家正在寻找各种办法检测和解决人工智能的偏见。我们已经制定了一套关于人工智能的指导性道德原则和一个名为 Aether 的开发和研究人工智能与道德标准委员会。我们计划未来推出的任何一款人工智能产品都需要先通过 Aether 的审查。我们共同创立了人工智能合作组织(Partnership on AI),以研究人工智能如何帮助我们解决最具有挑战性的问题。《未来计算》讨论了指导我们人工智能系统的核心原则。

    在发展人工智能的同时,我们有责任研究各种问题,使我们的技术为每个人创造利益和机会。我们所要建立的人工智能系统必须能够听到所有人的声音并能在这个多元的世界平等的认识所有的面孔。我们必须确保人工智能的巨大力量伴随着透明度和问责制,把人放在驾驶员的座位上。人工智能带有很大的可能性,我们还有很多工作要做。

发表评论

邮箱地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>