0

通用人工智能的双刃剑:驾驭发展,规避危机

 9 months ago
source link: https://www.ccvalue.cn/article/1411453.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

通用人工智能的双刃剑:驾驭发展,规避危机

 •  15 小时前
GPT-4实际上不仅仅是AIGC,它更像是通用人工智能的雏形。

作者:胡逸

最近,微软雷蒙德研究院机器学习理论组负责人塞巴斯蒂安·布贝克(Sébastien Bubeck)联合2023斯隆研究奖得主李远志等人,发表了一篇关注度极高的论文。这篇论文名为《通用人工智能的火花:GPT-4早期实验》,长达154页。一些好事者从LaTex源码中发现,原定的标题实际上是《与AGI的第一次接触》。

这篇论文的发表,标志着人工智能研究领域的一次重要里程碑。它为我们深入了解通用人工智能(AGI)的发展和应用提供了有价值的见解。同时,论文的原定标题《与AGI的第一次接触》,也凸显了对迈向通用人工智能的探索的重要性和前瞻性。

我耐着性子,看完了这篇论文的翻译版。说句大实话,半懂半不懂,不明觉厉。先给大家介绍一下这篇论文的核心主张:GPT-4呈现出一种通用智能的形式,绽放了通用人工智能的火花。这表现在它的核心心智能力(如推理、创造力和推理),它获得专业知识的主题范围(如文学、医学和编码),以及它能够完成的各种任务(如玩游戏、使用工具、解释自己等)。

读完这篇,我又重温了拙文《未来可期|人工智能绘画:让每个人都成为艺术家》。我问了自己一个问题:此前把ChatGPT这类大模型归类在人工智能生成内容(AIGC),是否有些狭隘?正如微软研究院论文所说,GPT-4实际上不仅仅是AIGC,它更像是通用人工智能的雏形。

在解释AGI意味着什么之前,我先给澎湃科技“未来可期”专栏的读者朋友说一下ANI、AGI、ASI这三个单词。

人工智能(Artificial Intelligence, AI)通常分为三个层次:

①弱人工智能(Artificial Narrow Intelligence, ANI);

②通用人工智能(Artificial General Intelligence, AGI);

③超人工智能(Artificial Superintelligence, ASI)。

接下来,再稍微给大家介绍一下这三个层次的区别和发展。

①弱人工智能(ANI):

弱人工智能是目前最常见的人工智能形式。它专注于执行单一任务或解决特定领域的问题。例如,图像识别、语音识别、机器翻译等。这类智能系统在特定任务上可能比人类表现得更好,但它们只能在有限的范围内工作,无法处理它们未被设计解决的问题。当前市场上有许多智能产品和服务,如虚拟助手(Siri、微软小冰等)、智能音箱(天猫精灵、小爱音箱等)和阿尔法围棋(AlphaGo)等,都属于弱人工智能的范畴。弱人工智能的局限性在于,缺乏综合性的理解和判断能力,只能在特定任务上表现出色。

随着大数据、算法和计算能力的不断发展,弱人工智能正在逐步渗透到我们日常生活的各个领域。在金融、医疗、教育、娱乐等领域,我们已经见证了许多成功的应用案例。

②通用人工智能(AGI):

通用人工智能,也称为强人工智能,是指具备与人类同等的智能,能表现正常人类所具有的所有智能行为的人工智能。这意味着,AGI能够像人类一样,在各种领域中学习、理解、适应和解决问题。和ANI不同,AGI能够独立完成多种任务,而不仅仅局限于某个特定领域。目前,普遍认为人工通用智能尚未实现,但许多科技公司和科学家正在努力靠近这一目标。

③超人工智能(ASI):

超人工智能指的是一种人工智能系统,在各个领域远远超越人类智慧。它不仅能够完成人类可以完成的各种任务,还在创造力、决策能力、学习速度等方面远远超过人类。ASI的出现,可能引发许多前所未有的科技突破和社会变革,解决人类无法解决的难题。

然而,ASI也带来了一系列潜在的风险。例如,它可能导致人类价值和尊严的丧失,引发人工智能的滥用和误用,甚至可能引发人工智能的反叛等问题。

原来,我们一直认为,人工智能技术,从弱人工智能到通用人工智能再到超人工智能,将经历一个漫长而复杂的发展过程。在这个过程中,我们有足够的时间来做好各种准备,大到法律法规、小到每个个体的心理准备。可是,最近我有一个强烈的感觉:我们离拥有通用人工智能可能只有几步之遥,而这可能只需要20年甚至更短的时间。如果有些人说这个过程只需要5-10年,我也不会完全排除这种可能性。

OpenAI公司在其发布的《通向AGI的规划和展望》中提到:“AGI有可能为每个人带来令人难以置信的新能力。我们可以想象一个世界,我们所有人都可以获得几乎任何认知任务的帮助,为人类的智慧和创造力提供一个巨大的力量倍增器。”

然而,这份规划强调了一个“逐渐过渡”的过程,而不是过分强调AGI的强大能力。“让人们、政策制定者和机构有时间了解正在发生的事情,亲自体验这些系统的好处和坏处,调整我们的经济,并将监管落实到位。”

在我看来,这段话传达的潜在信息是:通往AGI的技术其实已经具备。然而,为了让人类社会有一个适应的过程,OpenAI正在有意放缓技术的进展步伐。他们意图平衡技术进步和人类社会的准备程度,给予更多时间来进行法律、伦理和社会适应的讨论,并采取必要的措施来应对可能带来的挑战。

《论语·季氏将伐颛臾》里面有这么一句话:“虎兕出于柙”,现在,各种GPT们,如猛虎一般,已经从笼子里跑出来了。就像《未来简史》作者尤瓦尔·赫拉利所言:人工智能正在以超过人类平均水平的能力掌握语言。通过掌握语言,人工智能已经具备与数亿人大规模产生亲密关系的能力,并正在掌握入侵人类文明系统的钥匙。他更进一步地警示:核武器和人工智能最大的区别是,核武器不能制造更强大的核武器。但人工智能可以产生更强大的人工智能,所以我们需要在人工智能失去控制之前迅速采取行动。

3月22日,生命未来研究所(Future of Life)向全社会发布了一封公开信,题为《暂停巨型人工智能研究:一封公开信》,呼吁所有人工智能实验室,立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。生命未来研究所美国政策主任克雷恩(Landon Klein)表示:“我们认为当前时刻类似于核时代的开始……”这份公开信,已获得超过超千名人士支持,其中包括埃隆·马斯克(特斯拉创始人)、山姆·奥特曼(OpenAI首席执行官)、约书亚·本吉奥(2018年图灵奖得主)等知名人士。

如果许多人都意识到,我们即将进入一个“人工智能核武器扩散”的时代,那么我们确实需要探讨一种可能性。这个可能性是建立一个类似于国际原子能机构的国际组织,其目标是监督所有人工智能公司,根据其使用的GPU数量、能源消耗等指标进行监管。那些超过能力阈值的系统,都需要接受审核。通过这样的国际组织,我们可以共同努力,确保人工智能技术为人类带来福祉,而不是潜在的危害。

一些科学家主张,在推进人工智能研究和应用时,一定要避免人工智能系统具有超出人类控制的能力。他们做了很多比喻来描述正在发生的灾难,包括“一个10岁的孩子试图和Stockfish 15下棋”,“11世纪试图和21世纪作战”,以及“南方古猿试图和智人作战”。 这些科学家希望我们,不要把通用人工智能想象成“居住在互联网中,没有生命的思考者”。而是要把它们想象成一个完整的外星文明,正在以比人类快百万倍的速度思考。只不过,它们最初被限制在计算机中。

然而,也有一些科学家持乐观态度。在他们看来,人工智能的发展和研究应当持续推进,以促进科学进步和技术创新。他们比喻说,如果在汽车诞生的那个年代,如果有马车夫提议,让司机暂停开车6个月。现在回过头来看,这是否是螳臂当车的行为呢?他们认为,通过透明和负责任的研究方法,可以解决潜在问题,并确保人工智能技术的可控性。而且,正是要通过不断的实验和实践,我们才能更好地理解和应对人工智能可能带来的挑战。

最近,世界卫生组织(WHO)对于人工智能与公共医疗的结合发出了警告。他们指出,依赖人工智能生成的数据进行决策,可能存在偏见或被错误使用的风险。世卫在声明中表示,评估使用ChatGPT等生成式大型语言模型(LLM)的风险至关重要,以保护及促进人类福祉。他们强调,需要采取措施来确保使用这些技术时的准确性、可靠性和公正性,以保护公众的利益并推动医疗领域的进步。

许多国家已经开始采取措施,迈出了规范人工智能领域的第一步。3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用ChatGPT。同时,欧盟官员也正在制定一项名为《人工智能法(AI Act)》的新法律草案,其中包括:禁止特定人工智能服务的使用以及制定相关的法律规范。

美国商务部则发布通知,征求公众意见,其中包括:存有危害风险的人工智能新模型是否需要先进行审查才能发布。同时,商务部还承诺,打击那些违反公民权利和消费者保护法的有害人工智能产品。

5月16日,OpenAI首席执行官兼联合创始人山姆·奥特曼首次参加美国国会的听证会,就人工智能技术的潜在危险发表了讲话。他坦承,随着人工智能的进步,人们对于它将如何改变我们的生活方式感到担忧和焦虑。为此,他认为政府的干预,可以阻止人工智能“狂放的自我复制和自我渗透”。他提议建立一个全新的监管机构,实施必要的保障措施,并颁发人工智能系统许可证,同时具备撤销许可的权力。

在听证会上,奥特曼被问及他对人工智能可能出现的最大担忧是什么,他没有详细说明,只是表示“如果这项科技出了问题,可能会大错特错”,并可能会“对世界造成重大伤害”。

在这个听证会之前,中国在人工智能领域的监管和控制措施也引起了广泛关注。4月11日,为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家网信办起草了《生成式人工智能服务管理办法(征求意见稿)》。这份办法明确了对生成式人工智能产业的支持和鼓励态度,比如,“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。”

该意见稿要求,利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。意见稿同时要求,供货商须申报安全评估,采取措施防止歧视,尊重隐私权等。

上述这些国家共同采取的措施提醒我们,当前人工智能的发展带来了巨大的机遇和挑战。我们迫切需要制定明确的伦理准则和法规,以确保人工智能技术的正确使用和透明度。我们将面临着一系列重要问题:如何保障数据隐私和安全?如何应对算法的偏见和不公正?如何确保人工智能的决策透明和可解释性?这些问题需要通过明确的法规和制度来回应。

写到这里,我的思绪莫名地跳转到了最近大火的国产剧《漫长的季节》中,那首题为《漫长的》的诗歌第一段:

打个响指吧,他说

我们打个共鸣的响指

遥远的事物将被震碎

面前的人们此时尚不知情

在这里,我想做一个大胆的预测:当2024年到来,我们来评选2023年度词汇时,ChatGPT会是十大热词之一,甚至可能成为年度词汇或年度人物。

让我们来拆解一下“AI”这个单词吧。如果A代表天使(Angel),那么I可以代表恶魔(Iblis)。如今,人工智能技术正在迅速发展,展现出令人惊叹的“天使和恶魔”的共生关系。面对这一现实,我们需要采取行动,为了一个目标——“让我们享受一个金色的漫长的人工智能的收获之秋,而不是毫无准备地陷入寒冬。”

(作者胡逸,一个喜欢畅想未来的大数据工作者。)


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK