64

AI 公共政策成全球热点,美国 ITI 发布《人工智能政策原则》 - 腾讯云社区 - 腾讯云

 6 years ago
source link: https://cloud.tencent.com/community/article/867691?
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

AI 公共政策成全球热点,美国 ITI 发布《人工智能政策原则》

修改于2017-11-02 01:49:37阅读 8790

作者:曹建峰 腾讯研究院法律研究中心高级研究员   祝林华 腾讯研究院法律研究中心助理研究员

一、 AI公共政策成AI领域全球热点

AI研究开发和行业应用的热度仍在持续,在此背景下,AI公共政策成为了全球公私部门关注的热点。比如,2017年10月,石油大国阿联酋将人工智能确立为国家战略,同时高调任命了全球首个人工智能部长(minister of Artificial Intelligence),表明了阿联酋要用数据这一“新石油”和人工智能来解决其社会和经济发展问题的决心。

同样是在10月,英国工业联合会(CBI)发布《在英国发展人工智能产业》的报告,十分看好大数据、人工智能等对英国生产力的促进、提高作用,预计到2035年AI将给英国经济增加8140亿美元,并为此提出了18条公共政策建议,涉及“提高数据获取、促进技能供给、最大化AI研发、支持AI传播和渗透”等四个主要层面(参见腾讯研究院高级研究员徐思彦《英国再推人工智能报告: 四方面发力打造AI强国》一文)。

除了最近这些公共政策举措,美国、欧盟、英国、德国等自2016年以来就开始积极推进AI公共政策,比如在发布的政府报告或者国家AI战略中呼吁政策、法律、伦理、社会影响等研究,积极推动AI责任立法、AI伦理准则以及自动驾驶、医疗机器人等领域的细分立法,以及呼吁成立专门的人工智能机构加强对就业结构、工作等社会影响的监测并提出政策建议。

不仅公共部门热衷于AI公共政策,私营部门的科技公司对此亦动作频频。部分原因是人们对人工智能存在很大的认知偏差,对新技术缺乏深入理解导致威胁论、普遍失业等观点加深公众敌意和不信任,新技术带来的隐私、责任、安全和控制、理解和透明性、歧视等问题日益引起研究人员的兴趣。在业界,未来生活研究院(FLI)2017年初组织提出了人工智能发展的23条原则,2017年的“AI Now”报告提出了10项AI公共政策建议,这些都是业界的研究尝试。

硅谷的科技公司同样在以多种方式发表对于AI公共政策的观点和看法。比如,微软CEO纳德拉2016年在演讲中提出微软发展人工智能的六大原则,包括AI必须是透明性的,在追求效率最大化的同时不损害人类尊严,必须保护隐私,防止产生偏见,向算法问责,等等。这六大原则是微软AI研发的核心设计原则。

此外,微软还发布了《人工智能政策建议》,包括革新法律和法律实践以促进AI发展,鼓励制定最佳实践伦理准则,以AI带来的好处为基准衡量隐私法,政府以及公共部门通过启动重大项目和系统来促进AI的传播和采用。

还有IBM,Watson团队很早就成了伦理审查委员会,IBM在2017年达沃斯世界经济论坛上公布了其发展人工智能的三个基本原则,不以取代人类为目的,增加透明性,以及提高技能培训和供给。此外,IBM还致信美国国会,表达其公共政策诉求。

英特尔在发布的《人工智能公共政策机会》中对外传达了英特尔对这一新技术的社会影响的回应,包括促进创新和开放发展,创造新的就业机会并保护人们的福利,负责任地促进数据获取,重新思考隐私包括PbD、公平信息实践原则等,合伦理的设计和执行以及配套的可责性原则。

谷歌DeepMind团队最近宣布成立人工智能伦理部门,表明其在加强AI技术研发和应用的同时,也将伦理等AI公共政策提上议程,负责任地研究和部署AI。

当然,谷歌、Facebook等五大科技公司(苹果公司后来加入)联合组成的AI合作伙伴关系也对外宣示了科技公司对AI社会影响的重视,希望技术能够造福于社会经济生活和人类自身。

科技公司和科技行业背后的行业组织也没有闲着。10月24日,代表硅谷等科技行业发展利益和需求的美国ITI(信息技术产业理事会)发布首份《人工智能政策原则》,承认人工智能作为新技术将给社会经济生活和生产力带来变革性影响,AI系统可以用于解决一些最迫切的社会问题,而且AI系统应当不是取代劳动者,而是增强劳动者或者创造新的就业机会。

ITI在这份文件中提出了三大层面的14个原则,从人工智能发展和创新的角度回应舆论关于失业、责任等的担忧,呼吁加强公私合作,共同促进人工智能益处的最大化,同时最小化其潜在风险。

二、ITI人工智能政策原则呼吁灵活监管AI,避免激进立法

人工智能(AI)是一套通过对人类大脑的模仿,能够进行学习、推理、适应和执行任务的技术。随着数据获取和计算能力以及人类创造力的提高,研究人员正在开发智能的软件和机器,以提高人的生产力并无处不在地增强人类能力。

人们已经感受到了人工智能在众多领域为人们、社会和经济带来的益处。人工智能系统有助于医学诊断,提高医生对病情的预见性,帮助个性化治疗病人。人工智能提高了软件的可用性,使得残疾人可以获取数字内容,例如帮助盲人“阅读”互联网上数百万张照片或网站。此外,智能系统正在负责监测大量的经济交易,实时辨别潜在的欺诈行为,并为消费者节省了数百万美元。

通过将AI的能力和陆地概况图、天气预报和土壤数据结合起来,科技可以提供所需的数据和工具以便人类更好地保护土地,改善生态系统和提高农业产量。AI驱动的机器甚至可以使危险或困难的任务更安全,为人们开辟以前无法由人类探索的新环境。

创业公司、中型企业和大型科技公司都开发了AI系统来帮助解决一些社会最迫切的问题。通过使小型企业能以更少的资源做更多的事情,AI能使小型企业承担风险的能力增强并以更快的速度实现发展。

像其他变革性的技术演变,人工智能的影响不可能被完全地预测。但我们预测它会像互联网的发展一样,产生比预料还要大的影响。仅在美国,分析非结构化数据的AI技术市场预计到2020年将达到400亿美元,每年对生产力改善带来的收入可能超过600亿美元。这些创新本质上还会创造以前不存在的新产品和服务。到2025年,AI技术预计将为全球经济增加7.1万亿美元至13.17万亿美元。

这些转变不应该掩盖这样一个事实,即AI仍然是一个不断发展和改进的研究领域。随着它的发展,我们要认真承担责任,为AI世界做好准备,包括寻求解决潜在负外部性的方案,以及帮助培养和锻炼未来的劳动力。

为了确保AI能够发挥最大的积极潜力,信息技术产业理事会(ITI)代表技术领域的前沿公司,呼吁公共和私人部门的利益相关者之间相互合作。作为一个行业,我们承认有必要与各国政府和其他有关方面进行对话,并使之成为每一个阶段都应有的步骤。下文列举了行业和政府可以合作的具体领域,以及能够促成公私合作伙伴关系的具体机会。为了发展这些我们认为会和AI技术一道进化的原则,我们提出以下共识:

1.我们的责任:促进负责任的发展与利用

(1)负责任的设计和部署

我们认识到,我们有责任在遵守现有法律的基础上,将一些原则与AI的技术设计相结合。虽然AI对人类和社会的潜在好处是惊人的,但AI研究人员、专家和利益相关者还是应该花费大量的时间来确保AI的设计和部署是负责任的。高度自动化的人工智能系统必须符合保护人类尊严、权利和自由的国际惯例。作为一个行业,我们承认AI的使用和滥用可能产生的任何影响,并承认我们有责任也有机会能够通过引导AI向符合道德的方向发展,来避免可能产生的不良后果。

(2)安全和可控性

技术人员有责任确保AI系统设计的安全性。自主的AI代理(Autonomous AI Agents,或称AI能动体)必须将用户和第三方的安全视为首要考虑,AI技术应努力降低对人类可能产生的风险。此外,AI系统的开发必须具有相应保障措施,以确保人类对AI具有控制力,使AI严格遵守特定的运行程序。

(3)稳健而有代表性的数据

为了促进数据的有效使用并确保其在每个阶段的完整性,行业有责任了解数据的参数和特征,以证明其了解潜在的有害歧视和偏差,并在开始之前和部署整个AI系统的过程中对潜在的歧视和偏差进行测试。AI系统需要利用大型数据集,提供稳健而又有代表性的数据对于开发和改进AI和机器学习系统而言至关重要。

(4)可解释性

我们致力于与政府、私营企业、学术界和民间社会等主体共同寻求减少自动化决策系统中的歧视(偏见)、不公平和其他潜在危害的方法。但是,寻求这种解决方案的方法应该具体针对特定系统运行所依的特定环境下所呈现的独特风险。在许多情况下,我们认为实现更优解释性的工具将发挥重要作用。

(5)自动化AI系统的责任

针对人类作出的AI自主决策(虽然受到人类驱动的繁琐程序启发,但常常取代人类通过此类程序作出的决策)引发了社会对相关责任的担忧。我们承认现有的法律和监管框架,并将致力于与利益相关者合作,在自主系统的背景下为所有实体提供合理的问责制框架。

2.政府的机会:投资和建立AI生态系统

(1)投资AI研究与发展

我们鼓励通过激励制度和资金支持来促进研究、开发以及创新。作为长期高风险研究的资金的主要来源,我们支持政府对与AI有高度相关性的研究领域的投资,包括:网络防御,数据分析,欺诈性的交易或信息的检测,机器人,人类增强技术,自然语言处理,交互界面和可视化。

(2)灵活的监管方式

我们鼓励政府在采用新的法律法规之前,评估现有的政策工具,并谨慎使用。因为新的法律法规和税收政策可能无意或不必要地阻碍AI的推广和使用。由于AI技术的应用领域跨度很大,过度管理可能会无意间减少市场主体(尤其是创业公司和小型企业)创造和提供的技术的数量。我们鼓励政策制定者认识到在不同部门需要有具体做法的重要性,因为一种监管方式将不足以完全适合所有AI应用程序。我们随时准备与政策制定者和监管机构合作,解决出现的问题。

(3)促进创新和互联网安全

我们坚决支持保护AI的基础,包括源代码、专有算法和其他知识产权。为此,我们认为政府应避免要求公司转让或提供技术、源代码、算法或加密密钥作为业务交易条件。我们支持使用包括贸易协议在内的所有可用工具来实现这些目标。

(4)网络安全和隐私

就像其他技术一样,AI依赖强大的网络安全和隐私政策。我们鼓励政府使用强大的、全球接受和部署的加密技术和其他安全标准,从而实现信任和互操作性。我们鼓励自愿分享关于网络攻击或者黑客的信息,以更好地实现消费者保护。技术部门作为利益相关者最信赖的部门,可以通过将强大的安全功能融入到产品和服务中以提升可信度,例如使用已发布的算法作为默认加密方法以及限制对加密密钥的访问。数据和网络安全是AI实现成功的重要部分。

我们认为随着AI的蓬勃发展,用户必须能够相信他们的个人和敏感数据受到适当保护和处理。AI系统应使用包括数据匿名化、取消标识性或集成等工具以尽可能保护可识别性个人信息。

(5)全球标准和最佳实践

我们促进发展全球自愿的、行业主导的、基于共识的标准和最佳实践。我们鼓励在这些活动中进行国际合作,以帮助加快采用,促进竞争,并有助于实现成本效益的AI技术的引入。

3.公私合作的机遇:促进终身教育和多样性

(1)民主获取和机会平等

人工智能系统正在形成创造经济价值的新方法,如果这些价值为某些主体所独享,则可能会加剧现有工资、收入和财富差距。我们支持获取AI开发所需资源的机会和途径是多样的并且是不断扩大的,例如获取计算资源、教育和培训以及参与技术开发的机会等。

(2)科学、技术、工程和数学(STEM)教育

当前和未来的工人需要接受能够帮助他们成功的必要的教育和培训。我们认识到培训的提供至关重要,要对STEM教育领域以及人文科学和社会科学领域都进行重大投资。为了确保未来劳动力的就业能力,公营部门和私营部门应共同努力,设计和提供以工作为基础的学习和培训体系,积极为学生提供实际的工作经历和具体的技能。特别是在AI社区中,优先考虑STEM领域的多样性和包容性将是确保AI以最强劲的方式发展的重要要求。

(3)劳动力

有人担心人工智能将导致工作变更、失业或工人流离失所。虽然这些关切是可以理解的,但应该指出的是,大多数新兴的AI技术旨在执行特定任务,而不是替代人员。然而这种AI不断增强的智力的确意味着一个雇员的部分(但很可能不是全部)工作将会被AI替代或者更轻易地完成。

就创造或破坏就业机会而言,AI对工作的全面影响尚且无法完全知晓,但适应快速的技术变革的能力至关重要。我们应该综合利用传统的以人为中心的资源,以及新的职业教育模式和新开发的人工智能技术,来帮助现有的员工和未来的员工成功地开拓他们的事业或完成职业转型。

此外,我们必须通过公私合作,提高包括劳动力调整项目在内的终身职业教育和学习的传递性和有效性。同时,我们还必须优先考虑提供职业培训以满足市场对劳动力的需求,将资源集中于能产生强劲成果的项目上。

(4)公私合作伙伴关系

公私合作伙伴关系(PPPs)将使AI部署成为政府和私营企业的热门投资项目,并促进AI领域的创新性、可扩展性和可持续性。通过利用公私合作伙伴关系,特别是通过企业、学术机构和政府之间的相互合作,我们可以加快人工智能研发,为未来的工作做好准备。

三、对我国AI公共政策的几点启示

从《“互联网+”人工智能三年行动实施方案》到人工智能被写入2017年政府工作报告、《新一代人工智能发展规划》再到十九大报告提出“推动互联网、大数据、人工智能和实体经济深度融合”,我国对人工智能的重视不断提高,已经将发展人工智能上升为国家战略,而人工智能正逐步成为国际竞争的新焦点,西方发达国家如美国、英国、加拿大等都大力加码人工智能,纷纷看好其对经济增长的巨大价值和其他潜在好处。

我们需要看到,人工智能作为一项变革性的技术,有能力创造出巨大的经济效益,推动经济增长,并帮助解决人类社会中诸如交通、城市建设、医疗、环境保护等一系列迫切的社会问题,但这同时需要良好的公共政策环境以及对风险和危机的警惕意识。

第一,多层面打造人工智能生态系统。人工智能目前已经成为全球竞争的新焦点,各国在技术研发和部署上不断加码加力,都欲抢占技术高地。我国需要持续加大对人工智能的投资和政策支持,不仅包括提供专项研究资金、给予税收优惠等扶持性政策,而且需要对阻碍AI研发利用的既有法律制度进行革新(比如形成促进数据开放和获取的政策框架,因为用AI来解决社会问题、改善社会管理的核心还在于数据的获取),同时谨慎监管新事物,不宜激进立法,而是多采取行业指导等灵活的监管方式,在技术研发、产业应用、人才培养、政策支持等多层面形成合力,打造创新性的AI生态系统。

第二,负责任的AI研发和利用。AI技术本身是中立的,可以带来经济增长、解决社会问题,但其研发和利用也可能超越法律、伦理的界限,带来危险危害。如同过去的所有技术一样,AI也可能被滥用,其发展也可能偏离人类价值追求的方向,这是一个需要重视的问题。公私部门需要一起探索形成人工智能研发伦理和利用伦理限制,形成行业最佳实践的伦理准则,让AI创新、研发和部署是负责任的、可持续的,不断增进社会和个人的福祉。

第三,AI技术传播渗透和应用普及。AI的社会价值是巨大的,但这取决于AI技术在各个行业的传播渗透和应用普及。在这方面,政府可以发挥重大作用,比如可以通过组织实施一系列重大的AI研发、应用工程和系统部署,形成典型案例,从而对行业形成指导,促进AI技术的应用普及。

第四,教育、人才培养和劳动力转型。AI发展需要教育的跟进和高端人才的培养。正如ITI的人工智能政策原则所言,为了确保未来劳动力的就业能力,公营部门和私营部门应共同努力,设计和提供以工作为基础的学习和培训体系,积极为学生提供实际的工作经历和具体的技能。特别是在AI社区中,优先考虑STEM领域的多样性和包容性将是确保AI以最强劲的方式发展的重要要求。

但在另一个层面,虽然当前对AI将如何影响就业和工作,各方观点不一,但即使最终AI会带来更多就业,过渡期的劳动者大量失业是目前最大的担忧,因此需要促进劳动力转型,适应人工智能、数字经济等的发展要求。

在这方面,英国已经投入而且目前还在持续投入大量资金,为每个人提供所需的数字技能;而且,谷歌谷歌、BT等科技公司都承诺通过“数字技能合作伙伴关系”这一项目为数百万英国民众提供数字技能培训,形成人才培养和劳动力再培训的公私合作伙伴关系。确保在这场变革性的技术演进中没有一个人落下,是一个社会该尽的责任。

原创声明,本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 [email protected] 删除。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK