34

扎克伯格、马斯克等大佬都曾认真讨论过AI对人类的威胁

 5 years ago
source link: http://www.10tiao.com/html/751/201806/2691340646/3.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

点击上方“腾讯科技”,选择“置顶公众号”

关键时刻,第一时间送达



来源 / 腾讯科技(ID:qqtech)

编译 / 音希

欢迎下载腾讯新闻客户端,关注科技页卡,查看更多科技热点新闻


【腾讯科技编者按】马克·扎克伯格(Mark Zuckerberg)一直都认为,埃隆·马斯克(Elon Musk)对人工智能的担忧,完全就是杞人忧天。


这位SpaceX和电动汽车公司特斯拉的创立者曾一再通过电视和各种社交媒体渠道提醒全世界,人工智能“可能要比核武器更危险”。


因此在2014年11月19日,Facebook首席执行官扎克伯格一度邀请马斯克到自己位于加州帕洛阿尔托的家中共进晚餐,并且出席的还有Facebook人工智能实验室的两名顶级研究人员以及另外两位Facebook高管。


在晚餐进行中,Facebook的代表们试图让马斯克相信自己之前的观点是错误的,但好像并没有起到任何作用。“我真的认为这很危险,”马斯克在餐桌上表示。当时这次晚餐的参与者之一,包括了Facebook人工智能团队的首席科学家Yann LeCun。


马斯克对人工智能的恐惧,从本质上来说其实不难理解。如果我们创造出比人类更聪明的机器,就会对我们不利(参考一下《终结者》、《黑客帝国》以及《2001太空漫游》等电影)。我们再一次面临了这样的场景,当科技发展到一定程度之后,我们将它向全世界推广,往往会带来很多意想不到的后果。


无论是马斯克还是扎克伯格,一定都不会过多的透露这顿晚餐所讨论的细节,之前媒体也没有报道过、也没有讨论过二人长期以来对人工智能观点的分歧。


“超级智能”这一概念的诞生,是一种技术的突破,将人工智能提升到了一个新高度。并且能够创造出新型的机器,不仅可以完成普通人类能完成的狭义任务(比如驾驶汽车),甚至还能超越人类,听起来就像科幻小说一般。但围绕未来人工智能的争论,已经蔓延到了整个科技行业。


最近,有4000多名谷歌员工签署了请愿书,抗议谷歌公司与五角大楼签署了一份价值900万美元的人工智能合同。这笔交易对于谷歌这家科技巨头来说是稳赚的买卖,但是却让很多人工智能领域的员工深感不安。上周,一位安抚员工情绪的谷歌高管表示,在明年自己的工作合同到期后,不会继续为谷歌工作。


人工智能研究具有巨大的潜力和影响力,它既是经济发展的引擎,也是建立军事优势的手段。因此五角大楼已经开始积极的向科技领域寻求帮助,距离研制出一种新型自主武器的日子已经并不遥远了。


有各种各样的观点都已经加入到了这种激烈的辩论中,从加州中部海岸的哲学家到聚集在加州棕榈泉的科学家年度会议都是如此,亚马逊首席执行官杰夫·贝索斯(Jeff Bezos)甚至还成为了这次会议的主持人。


“现在关于人工智能风险的讨论,并没有表面上看起来像小说一样梦幻。”牛津大学先进技术研究中心人工智能未来研究所的Allan Dafoe表示。


在过去的几个月中,Facebook和其它已经上市的科技公司,都不同程度的引发了外界对于硅谷这项新的研究成果所带来后果的讨论。


今年4月,扎克伯格用连续两天的时间回答了美国国会议员关于数据隐私和Facebook在2016年大选期间所扮演角色的问题。就在上个月,他又在欧洲面临了同样的考验。


Facebook已经认识到,自己对正在发生的事情理解速度还是不够快,因此这家科技巨头也罕见的出现了自我反省的行为。要知道一直以来,科技行业始终秉持这样一种观点,不管世界是否喜欢或接纳,只要能让世界变得更美好,就是好的技术。


即使是像微软创始人比尔·盖茨(Bill Gates)以及已故的物理学家史蒂芬·霍金(Stephen Hawking)这样有影响力的人物,也同样表达了对人类创造出比自己更聪明机器的担忧。尽管超级智能概念的提出已经超过十年,但很多人依然坚持认为,我们应该在付诸实践之前认真的考虑所能产生的后果。


“我们正在创造的这种系统非常强大,”康奈尔大学计算机科学教授、贝尔实验室前研究员Bart Selman说,“我们现在还无法理解它的影响力。”


不完美的信使


Pacific Grove是加州中部海岸的一个小镇。1975年冬天,一群遗传学家聚集在这里,讨论了基因编辑技术最终是否会对这个世界带来伤害。2017年1月,人工智能领域在这个海滨小镇进行了类似的讨论。


在Asilomar酒店举办的这场私人聚会,是由“生命研究所”组织,这是一个为讨论人工智能和其它技术存在风险而建立的智库。


全世界人工智能领域重量级的人物聚集在这里,其中包括在上面提到出席扎克伯格邀请马斯克晚宴的Facebook人工智能负责人Yann LeCun。他曾开发出了一种神经网络,这也是当今人工智能领域最重要的工具之一。出席会议的还包括了2014年出版《超级智能:道路、危险和战略》一书的Palo Alto,这本书对人工智能会造成恐慌的概率进行了深入的讨论。还包括了前华盛顿大学计算机科学教授、前西雅图艾伦人工智能研究所负责人的Oren Etzioni、以及大名鼎鼎的DeepMind人工智能研究实验室负责人Demis Hassabis。DeepMind也是谷歌在伦敦建立最有影响的人工智能机构。



马斯克也是如此,他在2015年向马萨诸塞州的Cambridge研究所捐赠了1000万美元。同年他还出资建立了独立人工智能实验室OpenAI。这家实验室的目标是开发确保不会失控的超级智能技术。显然这个目标与Bostrom的观点保持了一致。


后来,马斯克参加了一个9人的专家小组,专门讨论超级智能的问题。每个小组成员都被问及了超级智能是否最终会实现的问题。当麦克风被摆到马斯克面前时,他与前面几位成员的态度截然相反。这引发了与会者的笑声,每个人都知道马斯克对超级智能的观点,不仅不可能,而且还非常危险。


在小组讨论结束之后,有人问马斯克,人类社会如何才能最完美的与超级智能共存。马斯克表示人类需要大脑与机器之间的直接联系。几个月之后,马斯克创办了一家名叫Neuralink的初创公司,该公司的投资总额高达1亿美元,旨在通过电脑与人类大脑的连接创造出所谓的“神经界面”。


当然,关于人工智能风险的警告已经存在多年,但这些预言家们很少有人拥有马斯克这样的地位和说服力。要知道几乎没有人花那么多的时间和资金在这方面,也没有哪个国家的技术有如此复杂的历史。


就在马斯克结束了扎克伯格晚宴后的几周,他又打电话给Yann LeCun,询问了那些可以为特斯拉Autopilot技术工作的顶级人工智能研究人员名单。(最近发生了两起特斯拉致命事故,并且都开启了Autopilot功能。其中一起发生在2016年5月的佛罗里达州,另外一起发生在今年3月)。


特斯拉在最近的一次电话财报会议中披露,他并不同意外界对公司财务以及汽车质量的担忧,甚至批评媒体过度关注事故中死亡的新闻点而忽略的之前自动驾驶技术拯救人类生命的作用。这对一位一直持有反对人工智能技术、认为其具有极大危险性立场的人来说,是一种了不起的观点。


来自棕榈泉的分歧


在硅谷有句谚语:我们会高估三年内的成果,但低估10年后的成绩。


2016年1月27日,谷歌旗下的DeepMind实验室打造了一款可以击败人类最顶尖围棋高手的机器。在一次对决中,这台名叫AlphaGo的机器击败了欧洲围棋冠军樊麾,后者在五场对决中完败。


即使是最顶尖的人工智能研究员也认为,机器还需要10年的时间才能解决这个问题。围棋是一种极其复杂的棋类运动,它有成千上万种可能,而最好的选手通常不仅是依靠纯粹的计算,还包括了自己的直觉。在Alpha亮相的两周之前,LeCun还表示这种机器是不存在的。


但几个月之后,AlphaGo又击败了李世石,后者是过去十年中这个星球上最出色的围棋选手。虽然AlphaGo让很多人类专家感到困惑,但最终并没有阻碍自己取得完胜。


包括DeepMind和OpenAI负责人在内的很多研究人员都认为,AlphaGo的自我学习技术为“超级智能”提供了一种路径。他们相信在未来的几年中,这一领域会有飞速的进步。


OpenAI最近“训练”了一种可以玩赛车游戏的系统,并且想要让它更多的赢得比赛。而正是这种不可预测性让人们对人工智能的崛起产生了严重的忧虑,包括超级智能。


今年3月,在亚马逊创始人贝索斯在棕榈泉举办的会议上,人们对人工智能的担忧情绪空前高涨。


麻省理工学院的机器人专家Rodney Brooks与神经学家、哲学家和播客作者Sam Harris讨论了人工智能的潜在危险,这是一种比较具有代表性的声音。根据《泰晤士报》获取的录音片段来看,这场辩论极具个人主义。


Harris警告说,全世界目前已经处于对人工智能的“军备竞赛”中,研究人员可能没有足够的时间来确保超级智能的建立是以安全为前提。


但Brooks对此观点进行了反驳,他认为Harris的论点并不科学,而不能被论证对错的结论,是科学家们所不能接受的。


最终由于讨论过于激烈,主持人不得不主动中止了谈话,并且开始向观众提问。艾伦研究所的负责人Etzioni也表达了自己的观点,他认为今天的人工智能系统依然非常有限,花太多时间去担心它的安全性,完全没有意义。


而那些接受马斯克观点的人,大多数是哲学家、社会科学家、作家,而不是在人工智能领域工作的研究人员。人工智能领域的科学家,都对马斯克的“超级智能威胁论”的观点不够重视。


扎克伯格与华盛顿


自从三年前的晚宴结束后,扎克伯格与马斯克之间的分歧变得越来越大。去年夏天,扎克伯格在Facebook上直播了一段视频,在视频中他和妻子在自家后院烧烤。扎克伯格表示马斯克对人工智能的看法“相当不负责任”。


扎克伯格说,人工智能发展的早期出现恐慌情绪,可能会威胁到诸如自动驾驶汽车和人工智能医疗等诸多益处的发展。


“特别是在人工智能方面,我非常乐观。那些唱反调的人,去鼓吹世界末日的场景,我真的不明白。”扎克伯格说。



扎克伯格的言外之意,就是讽刺马斯克有些过于超前。“已经和马斯克讨论过这件事,他对这个问题的理解非常有限。”


今年4月,扎克伯格在出席国会听证会的时候解释了Facebook如何解决隐私问题,其中一种方式就是依靠人工智能。但在他的证词中,扎克伯格承认科学家们目前还没有弄清楚某些类型的人工智能是如何进行学习的。


“这将是一个非常核心的问题,我们如何看到未来10年及以后的人工智能系统。现在很多人工智能系统都还是以无人理解人类的方式做出决策。”扎克伯格说。


科技巨头和科学家可能会嘲笑马斯克在人工智能上的“目光短浅”,但事情似乎正朝着他的观点去发展。


在谷歌内部,已经有一群人正在探索人工智能技术的缺陷,这种缺陷可以让计算机系统误认为不存在的东西。研究人员警告称,自动生成效果逼真的图像及视频的人工智能系统很快就会在网上呈现出不存在的东西。


但作为DeepMind的创始人,Harris依然认为马斯克的观点很极端,同时他对扎克伯格的观点表示认同。虽然他们都认为威胁不存在,但Facebook却已经对此问题提出了警告。


Hassabis说:“我们需要利用时间好好考虑,为未来几十年的发展做好准备。现在的时间很宝贵,我们要好好利用。”(编译/音希)



About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK