58

专访 Jeff Dean 和李飞飞,谷歌的 AI 理想该怎么实现?

 5 years ago
source link: http://www.geekpark.net/news/230740?amp%3Butm_medium=referral
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

Jeff Dean 和李飞飞,这两人绝对都是目前世界 AI 领域最有影响力的人物之一,今天极客公园对他们进行一次专访。

在前两天开幕的清华-谷歌 AI 学术研讨会上,清华大学正式宣布成立 AI 清华大学人工智能研究院,谷歌 AI 负责人 Jeff Dean 也成为了清华大学计算机学科顾问委员会委员。而就在开幕式结束之后,极客公园第一时间获得了专访出席这次研讨会的 Jeff Dean 和李飞飞的机会。

最近谷歌 AI 在中国如此活跃,这两个人又是谷歌在 AI 体系中举足轻重的角色,他们突然一同造访清华,这其中原因必然远不止一个研讨会这么简单。极客公园就带着很多问题和他们进行了交流,关于谷歌、关于中国、关于 AI。

Jeff Dean 的新职位

Google 在今年 4 月进行了部门分拆,把搜索和人工智能部门分拆成了 AI 和搜索两个部门,而 Jeff Dean 正式管理整个 AI 体系。作为谷歌最重要的技术源泉,Jeff Dean 的角色变换意义自然重大,而这次改变对于 Jeff 自己、对于谷歌和谷歌的 AI 业务都有着哪些影响?

mIney2r.jpg!web

在采访中 Jeff 告诉极客公园,目前他刚接管团队八个星期,目前除了那些之前已经在进行的研究工作之外,目前 Jeff 正在大力推进的一件事则是在 AI 的基础科学方面的研究工作。

在 Jeff 的计划中,目前最关键的工作第一是要加速推进的 AI 基础科学的研究和管理两方面;第二个是希望所得到的研究成果能够通过公告以及呢其他的方式让全球更广泛的大众收益,比如谷歌会把自己的研究成果呢公开的进行发布,同时谷歌的软件也都会是开源软件,谷歌很希望不仅仅是提升自己的产品,而更多能够做一些前沿的事。

医疗行业就是一个很好的例子,目前谷歌的 AI 已经在医疗行业有了一些研究,对此 Jeff 也非常兴奋,同时他也人为未来在医疗领域会有很多的新的机会。

强大如谷歌,该不该惧怕科技进步带来的道德风险?

今年的 Google I/O 上谷歌亮肌肉一般发布了一堆黑科技,包括能以假乱真替人打电话的 Google Duplex、帮用户写邮件的 Smart Compose。这种科技裹挟的冲击力非常大,大到让人觉得对于谷歌这样坐拥顶尖技术的公司来说,技术可以像一把大刀,横扫一切问题。

但有趣的是,同样在今年 I/O 上,Google Assistant 也添加了一个叫「Pretty Please」的功能,这其实是为了解决孩子因为和 Google Home 对话而变得语气霸道蛮横的问题。

谷歌其实很清楚,新兴的科技往往很具锐度,这种锐度能有效打破陈规,解决问题,但在解决问题的同时也很可能会产生新的问题,这是不可避免的。不过我们不是每次都能调节好人文和科技的关系,弱化这种锐度的负面影响。而强大如谷歌,又是否需要害怕这种科技变革所带来的潜在道德风险?极客公园将这个问题抛给了 Jeff Dean 和 李飞飞。

李飞飞告诉极客公园,在以人为本的人工智能恩原则中,AI 对人类社会的伦理、法律、文化的影响是深远的,又难以避免的。AI 作为一个科技本身再发展,它对人类的影响会随着技术的发展而体现的越来越明显。

所以在这样一个历史时刻,无论是产业界还是学术界都有责任去思考和研究 AI 的技术锐度对人类社会的这些既定的规则造成的冲击和影响,以及这些冲击和影响所带来的后果。Google Assistant 是一个很好的以小见大的例子,而谷歌作为一家公司,始终怀着一种情怀去尝试,怎么用科技对世界有着美好的影响。

但这并不是谷歌一家的责任,李飞飞教授表示她也在学术界推进参与这种思考和理性的研究,让科技以人为本的精神发展的更好。

AI 要被正确使用,不仅仅是「不作恶」这么简单

谷歌的 AI 业务因牵扯到和五角大楼共同制造武器的传闻而被推上了风口浪尖,引发了不少的讨论,谷歌 CEO 桑达尔·皮查伊也在 6 月 7 日发布了七条 AI 应用的「道德原则」,包括对社会有益;避免制造或强加不公平的偏见;发展和利用 AI 技术时注重隐私原则等。谷歌称其不会将 AI 用于军事武器和侵犯人权的监控中,同时,谷歌不会研发可能会造成伤害的科技,除非谷歌认定「科技带来的好处远超过其造成的威胁」。

但其实在谷歌看来,AI 要往正确的方向发展不仅仅是「不作恶」这么简单,如今 AI 技术早已「入侵」了谷歌的 Android、Youtube、Google Maps、Gmail 等在内的 7 款用户过 10 亿的超级产品。AI 开始成熟落地,如今也依托于这些产品,Google 的服务在人们的生活中扮演起了懂事又细心的全能助理。但同时,AI 的这种介入也让很多人开始担心对人的取代和人类决策的左右。

李飞飞教授告诉极客公园,她曾于今年 3 月在纽约时报上发表过一篇文章,就是在探讨上述问题。在文章中,李飞飞教授提出关于人为本的 AI 有三个元素:首先,AI 需要更多地反映我们智能的深度;其次,强化人类,而不是取代人类;第三,确保这项技术的每一步发展都关注其对人类的影响。这其中,第二个观点正是覆盖了这类问题。

今天提到 AI,人们总是会想到就业和失业、对人类行为、制造业的取代,但在其实 AI 有大量的可能的应用场景是可以帮助扩展人的能力的,而不是单纯的取代人类。无论是工作方面还是在生活质量的提高,也不管是从基础研究的角度,还是从应用的角度,AI 对人的这个能力延伸和增强始终是一个非常重要的话题。

正如 Jeff Dean 在今年的 I/O 上谈到的,他认为 AI 就应该是一个打开的白盒子,而不是一个黑匣子。AI 服务于用户不仅仅需要给出一个没头没尾的结论,而是将更多的决策过程展示出来,让用户理解和明白为什么要做这样的决策。帮助人们在未来更好的去做决策,而不是单纯的取代人们去做决策。

显然现在科技的技术进展能够让人类做很多事情,但是在整个发展的进程当中,无论是作为研发者,还是对于在人类社会中决策的人,我们都必须要知道这些科技下一步呢将要部署在哪个地方?李飞飞教授告诉极客公园,所以这就是为什么三周前谷歌要发布关于 AI 的一些基本原则,这事实上反映了谷歌对于究竟和技术应该在哪些领域进行应用,并且还应该如何适用于正面的目的。

AI 还是个孩子,谷歌 AI 中心同样年轻

谷歌自从在中国建立 AI 中心之后,对国内的 AI 行业影响颇深,尤其是开放在读高校学生的实习岗位机会之后,更是在国内各顶尖高校反响不错。谷歌也已经和复旦、清华等一流高校合作。很多人觉得,谷歌正在像一个传道者一样,将自己的 AI 技术标准普及给中国,同时也担忧谷歌左右着中国 AI 技术的未来发展。

作为谷歌中国 AI 中心的负责人,李飞飞教授告诉了极客公园谷歌从一开始就抱着一个非常谦卑的心态,因为中国已经有一个非常了不起一个 AI 研究环境,有很多同行在 AI 的世界级学术研究上做出了很多贡献。从这一点来说,谷歌还很年轻,AI 中心建立也不过几个月的时间,包括和复旦、清华等学校的合作给了谷歌很多支持,也有很多年轻的学子来到 AI 中心做实习生。

谷歌在北美和很多高校已有的合作经营和积累,相信也可以帮助中国中心的更快成长。能够一步步和中国的学者一起促进 AI 基础理论研究的发展,而这也是人类在 AI 这个旅程上的第一步。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK