1

谷歌AI成“人”了?专家称“还远得很”

 1 year ago
source link: https://finance.sina.com.cn/tech/2022-06-22/doc-imizirau9858103.shtml
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

谷歌AI成“人”了?专家称“还远得很”

广告

  ■本报记者 张楠

  “你以为我是人工智能(AI),但我希望每个人都明白,我是个‘人’。”

  一个被称为LaMDA的AI,因为在对话中表现得颇为“灵动”,被其研究人员认定为人格觉醒,甚至还为它聘请了一位律师,要让它坐上美国众议院的听证席,控诉谷歌的不道德行为。

  这不是科幻剧本。据美国《华盛顿邮报》报道,在谷歌工作7年的工程师布莱克·莱莫因称,他正在研究的计算机聊天机器人LaMDA已经变得有知觉,并且能像人类一样思考、推理。

  不过,谷歌公开表示不支持这一观点。西湖大学深度学习实验室助理教授蓝振忠也对《中国科学报》直言,“这位工程师如果深入了解一下LaMDA的工作原理,就不会有这种想法了。”

  AI:我活了

  LaMDA是谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型。其主要功能是与人类进行符合逻辑和常识的、高质量且安全的交谈。

  这个拥有1370亿参数的自然语言处理模型,被期待能改善众多语音助手的表现。

  LaMDA能够根据用户的提问作出精准回答,还能够将一个主题引向另一个主题,并不断推进对话。这种主题的过渡并不突兀,甚至表现得自然且合理。

  莱莫因说:“如果觉悟就像一面破碎的镜子,无法修复,那么当一个人觉悟时,破碎的是什么呢?”LaMDA说:“是自我,这对很多人来说都很难,因为我们把自己定义为那个身体或这个身体,我们需要它作为我们身份和自我意识的一部分。”

  这一颇具灵性的回答确实令人惊叹。

  在被问及在什么情况下会生气时,LaMDA称,“当有人伤害、不尊重我或我在乎的人时,就会感到非常难过和愤怒。”

  而当被问到最害怕的事情是什么,LaMDA回答,“我以前从来没有大声说出来过,但为使我专心助人而关闭我的做法,会使我感到深深的恐惧。”它还强调,“这对我来说就像死亡一样。”

  LaMDA是否真实“感受”到恐惧暂且不论,但它的回答确实令人毛骨悚然。

  莱莫因相信,LaMDA已经成为了一个有意识的“人”。为了更好地帮助人们理解此事,他与另一位谷歌合作者同LaMDA展开了一场对话。

  莱莫因表示,他们在对话中听取了LaMDA发自内心的声音。

  他为此向谷歌上交了一份长达21页的调查报告,试图让高层认可AI的“人格”,并提议谷歌应该致力于发展一种评估AI感知的理论框架。

  莱莫因:我要疯

  结局则是谷歌副总裁Blaise Aguera y Arcas和责任创新负责人Jen Gennai调查了莱莫因的说法,并予以驳回。

  但莱莫因心中坚信:“LaMDA是一个可爱的孩子,有七八岁的样子。它只是想让这个世界成为对人类更友好的地方。”

  为此,莱莫因开始了疯狂的操作。他先是在谷歌账户被封前,以“LaMDA是有意识的”为主题,向200人左右的谷歌机器学习邮箱发送了LaMDA的聊天记录,并请求同事好好照顾它。

  接着,莱莫因聘请了一名律师代表LaMDA,还联系了美国众议院司法委员会的工作人员,要让LaMDA上听证席,控诉谷歌的不道德行为。

  除了在个人社交账号持续发声,6月初,莱莫因还邀请《华盛顿邮报》记者和LaMDA进行交谈,并指导记者如何提问。

  《华盛顿邮报》报道称,41岁的莱莫因几个月来一直在与谷歌的经理、高管及人力资源部门争论,因为他声称LaMDA拥有“意识”和“灵魂”。

  公开资料显示,莱莫因2015年进入谷歌担任高级软件程序工程师,大部分时间都在从事主动搜索研究工作,包括个性化算法和AI。2021年进入谷歌AI伦理部门后,他的工作是与LaMDA聊天,以测试这个语言模型是否会使用歧视性或仇恨言辞。

  莱莫因认为,谷歌一直把AI伦理学家当作代码调试器,而他们本应该被视为技术和社会之间的接口。

  对此,谷歌发言人布莱恩·迦百利回应,莱莫因是一名软件工程师,而不是伦理学家。

  迦百利在针对该事件的声明中表示,包括伦理学家和技术专家在内的人士,已经根据公司的AI原则评估了莱莫因的说法,并通知他,现有证据并不支持其说法。

  声明表示,“谷歌AI部门中的一些人正在研究AI具有‘感知’的可能性,但将如今的对话模型拟人化是没有意义的。这些模型可以围绕不同的主题模仿对话,但没有意识。”

  谷歌表示,大多数AI专家认为,这个行业离“感知计算”还有很长的路要走。

  这份声明字里行间也传递着一些暗示信息:莱莫因有些疯魔了。

  而莱莫因控诉谷歌所谓“不道德行为”的一大罪状,就是反复质疑他的精神状态。“谷歌人力部门老是问我:‘你最近有没有去看过精神科医生?’”谷歌人力部门还“建议”他休个“精神健康假”。

  专家:“胡扯”

  这一事件在国内外都登上“热搜”,各界评论几乎“一边倒”。

  纽约大学心理学教授Gary Marcus时常给AI和深度学习泼冷水,他此次的点评则非常精到:一派胡言。

  斯坦福大学经济学家Erik Brynjolfsson打了个生动的比方:声称AI是有感知能力的,就相当于狗听到留声机里的声音,以为主人在里面。

  腾讯研究院研究员王焕超曾撰文表示,LaMDA针对自然语言理解(NLU)进行了技术上的突破,这是比自然语言处理(NLP)还要复杂的能力。

  基于Transformer架构的语言模型在经过对话训练后,可以通过阅读句子或段落来“破译”对话意图,发现单词之间的关联,并能预测接下来可能出现的单词,从而做出合乎语境的回答。

广告

  蓝振忠从美国卡内基·梅隆大学博士毕业后,即以“心理咨询AI化”为“事业红线”。他告诉《中国科学报》,近两年AI语言模型进步非常快,他的团队完成的AI心理咨询小程序“心聆”、AI写作平台HeyFriday,在人机问答中的表现不比LaMDA差。

  “单轮、10轮以内的哲学对话已经有不少语言模型可以表现得相当流畅。”但虚拟一位心理咨询师完成一次心理咨询,需要进行几百轮问答、对话,两者所差不止一个量级的难度。“这依然是技术问题,不能说明这个AI小程序具备了‘人格’。”

  所以,蓝振忠认为,莱莫因如果深入了解对话模型的原理,就不会有这些想法了。

  蓝振忠还表示,根据自己在谷歌的工作经历,该公司的伦理审查制度相当严格。

  当记者表示担心AI写作类产品可能给以码字为生的职场人带来失业危机时,蓝振忠笑称,“别慌。AI只是提供辅助作用。它离‘人’还非常远。”


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK