[译] 坚持评估人工智能及其社会影响一百年不动摇

250 阅读21分钟

本文译自 A Century Long Commitment to Assessing Artificial Intelligence and Its Impact on Society

Barbara J. Grosz,哈佛大学 AI100 常务委员会首任主席

Peter Stone,德克萨斯大学奥斯汀分校,首届 AI100 研究小组主席

  于 2014 年 12 月启动的斯坦福大学百年人工智能研究项目,旨在在人工智能领域进行一个长达一个世纪的定期评估,主要为了研究人工智能本身及其对人、社区和社会的影响,简称为 "AI100" 。该项目在 2016 年 9 月发布了第一份报告,常务委员会和参与 AI100 的斯坦福大学教务主任共同监督该项目进程并设计其活动。在首次报告会开幕到现在的两年多的时间里,我们反思了很多,包括在报告会构思过程中的决策,报告会进行的过程,会上得出的主要结论以及在它发布后的我们获得的反馈。

  首届 AI100 报告会的主题为"2030 年时的人工智能和生活",它审视了 AI 技术已经开始影响城市生活的八个人类活动领域。范围上看,它包含已经正在生产那些能够通过 AI 方法启用的新兴产品的领域,以及引发人们对由潜在的 AI 启用系统产生的技术影响的担忧的领域。主办这场报告会的研究小组成员和指导 AI100 项目的常务委员会,打算将其作为催化剂,激发一场关于社会如何塑造和分享 AI 可以实现的潜在强大技术的讨论。除了影响研究人员和对工业及政府的指导决策,该报告还旨在为公众提供科学和技术准确的信息来描绘人工智能的现状及其潜力。它渴望能以这些经过论证的现实状态,取代科幻小说书籍和电影植根于人们心中的 AI 概念。

  该报告侧重于人工智能研究和"专业人工智能技术" - 为此开发的方法并针对特定应用量身定制 - 这在日常活动中越来越普遍,而不是像媒体经常提到的远离实现的广义人工智能。它预计启用 AI 的系统具有改善日常生活的巨大的潜力,能对全球经济产生积极影响,同时也将造成深刻的社会和道德挑战。因此报告认为,涉及人工智能技术及其设计,道德和政策挑战的最广泛专业知识的审议现在应该开始,以确保人工智能的利益得到广泛分享,以及系统安全,可靠,值得信赖。

  在本专栏的其余部分,我们提供了有关 AI100 的背景知识以及第一份报告的框架,然后讨论了一些调查结果。 在此过程中,我们讨论了自报告出现多年来我们收到的几个问题,并对其中的一些用途进行了编目。


百年研究的影响与起源

  AI100 研究的推动力来自各方对 2008-2009 年 AAAI 总领长期未来人工智能小组的积极响应,该小组由当时的 AAAI 总裁 Eric Horvitz (微软研究院)委任,由他和 Bart Selman(康奈尔大学)共同主持。霍维茨在人工智能的状态中进行了大量的实践反思,并组织专家组探讨"人工智能进步的潜在长期社会影响"。特别是,他要求他们考虑人工智能的成功以及 AI 引起的社会机遇和挑战等问题;人工智能技术引发的社会经济,道德和法律问题;实地采取措施可以采取积极步骤,以加强长期的社会成果;以及自治系统所需的各种政策和指南。

  该小组的调查结果及其反应致使 Horvitz 设计了 AI100,这是一项关于 AI 进展对于人与社会影响的长期研究。这项研究是为了定期研究与人工智能相关的发展,趋势,未来和潜在挫折,并制定评估。新项目要在内部(领域内部)和外部(其他学科和整个社会)看起来平衡。该项目的长期性质是其最新颖的方面;它旨在定期(通常每5年)在至少100年的时间内组建一个研究小组,重新评估 AI 的状态及其对社会的影响。“框架备忘录”列出了 Horvitz 的这个项目的愿望以及位于斯坦福大学的原因。


塑造100年项目的第一步

  • 组建研究小组

  随着 AI100 项目于 2014 年 12 月启动,预计将有几年时间用于塑造项目,让具有社会科学和人文科学专业知识的人员以及人工智能参与此项工作,确定重点主题,并招募研究小组。然而,在几个月之内,很明显人工智能正在进入日常生活,并以不允许这种悠闲节奏的速度获得强烈的公共利益和审查。常务委员会定义了一个压缩的时间表,并聘请了德克萨斯大学奥斯汀分校的 Peter Stone(本专栏的共同作者)担任该报告研究小组的主席。他们共同组建了一个由17名成员组成的研究小组,其中包括来自学术界,企业实验室和行业的人工智能专家,以及法律,政治学,政策和经济学中精通人工智慧的学者。虽然他们的目标是专业和专业知识,地理区域,性别和职业阶段不同的小组,但缩短的时间框架导致研究小组的地理位置和领域不同于理想,一些报告读者指出。鉴于这些缺点,在考虑未来研究的设计时,指导委员会增加了其成员,包括更多来自社会科学和人文科学的代表,目前正在设计一个更具包容性的规划和报告程序。

  • 设计指控

  常务委员会审议了首届 AI100 报告的各种主题和范围,包括对子领域的研究和应用状况的一般调查,以及对特定技术的深入研究,如机器学习或自然语言处理,或应用领域,如医疗保健或运输。它的最终选择反映了一种愿望,即在一个能够带来社会环境和广泛技术发展的背景下,对报告的评估进行评估。关注“2030 年的人工智能与生活”源于对城市大部分人类历史以及城市中心作用的认识,这是许多人工智能技术可能在个人生活中聚集在一起的场所。进一步关注北美城市之后,认识到在专家组工作的短时间内,不可能充分考虑世界各地城市环境和文化的巨大差异。虽然常设委员会希望该研究产生的预测,评估和主动指导将具有更广泛的全球相关性,但它打算让未来的研究具有更大的国际参与和范围。

  拨给研究小组的经费要求它确定人工智能在 15 年内可能取得的进展及其对城市日常生活的潜在影响(重点关注北美城市),以确定所需的科学,工程,政策和法律工作实现这些发展,考虑为社会利益塑造成果所需的行动,并审议发展所带来的设计,道德和政策挑战。它进一步规定,研究小组应在人工智能子领域,这些技术及其对各种活动的潜在影响之间的相互依赖性和相互作用的背景下研究人工授精技术。

-创建第一份报告

   在没有先例且时间很短的情况下,研究小组参与了一系列虚拟召开的头脑风暴会议。 在这些会议期间,他们相继完善了报告中要考虑的主题,目的是确定人工智能在未来 15 年内最有可能在城市环境中产生影响的领域或经济部门。

  然后,在 2016 年 AAAI 会议的 2 月份面对面会议期间的全天密集写作会议期间,他们起草了报告部分。 他们反复修订了这些部分草案,目的是制作一份公众可以访问的报告,并传达了研究小组的关键信息。

  在 7 月 2017 年 IJCAI 会议的最后一次面对面会议上,研究小组确定了报告的主要信息,这些信息在报告的边缘显示为标注。


报告内容

  该报告旨在解决几个不同的受众,从普通公众到人工智能研究人员和从业人员,从而既可以让人们接受又提供深度。因此,该报告具有 3 个部分的层次结构:执行摘要,更广泛的5页概述,其总结了报告的核心,以及具有更多细节的核心。核心考察了人工智能在未来几年可能会对其产生影响的八个典型城市环境的“领域”:交通,家庭和服务机器人,医疗保健,教育,公共安全和保障,低资源社区,就业和工作场所,以及娱乐。尽管在大众媒体中普遍存在认为过于乐观或悲观的立场,但作者故意不会对他们的立场给予太大的重视,因为作者希望报告能够提供给人们一个对于AI领域技术发展核心的平衡和清醒的评估。

  对于研究小组调查的每个领域,该报告总结回顾了 15 年来已经发生的AI变化,然后项目向前推进了 15 年。它确定了大量数据的可用性,包括语音和地理空间数据,以及云计算资源和用于感知和感知的硬件技术的进展,为人工智能研究的最新进展以及为成功部署启用AI的系统做出了贡献。机器学习的进步,部分由这些资源推动,在深度人工神经网络的发展和实现方面,这些成就也发挥了关键作用。我们简要总结的研究小组前瞻性评估的目地是提请人们能注意到研究小组看到的在人工智能技术改善社会条件方面的机会,并且降低实现这一潜力的障碍以及应对现实风险。

  对于不同的领域,人工智能系统进入人们日常生活的预计时间范围,改变生活的机会和给每个领域带来的挑战一定会各不相同。然后,研究小组确定的挑战涵盖了计算机科学的全部范围。从硬件到人机交互。例如,确定安全可靠硬件的改进对于运输和家庭服务机器人的进步至关重要。报告预测的自主运输可能“很快就会成为常见的”,是目前最明显的人工智能应用之一;除了改变个人的驾驶需求外,预计还将影响交通基础设施,城市组织和就业。家庭服务机器人的经验说明了硬件的关键作用:虽然机器人真空吸尘器已经在家中使用多年,但技术限制和可靠机械设备的高成本限制了狭义应用的商业机会。对于医疗保健,报告中强调的挑战包括开发共享数据的机制,消除政策,监管和商业障碍,以及提高系统的能力与护理提供者,患者和患者家属自然合作。该报告还确定了流畅互动和与人有效合作的能力,这是实现人工智能技术的承诺以加强教育的关键。

  实现潜力的主要挑战人工智能需要满足低资源社区的需求,包括设计方法,与在这些社区工作的机构和组织以及这些团体及其所服务的社区发展AI Technologies的信任。在公共安全和安全领域也出现了这些挑战。在就业和工作场所领域,虽然注意到具有AI功能的系统将在某些类型的工作中取代人,但该报告预测AI能力更有可能通过替换任务而不是被淘汰的工作来改变工作。它突出了社会和政治决策在应对一系列社会挑战中的作用随着工作技术的发展,人工智能技术应运而生,并且它认为现在应该解决这些挑战。

  评估“下一步是什么?”在人工智能研究中,该报告指出,“随着它成为社会的核心力量,人工智能领域正在转向建立能够与人们有效合作的智能系统,而且更普遍的是人类意识”。它确定了目前AI研究和应用的“热点”。在机器学习领域,它描述了使用非常大的数据集,深度学习和强化学习进行扩展的努力。已经融入各种应用程序的机器人技术,计算机视觉和自然语言处理(包括口语系统)近来取得了长足的进步,并准备取得进一步的进展。在两个相对较新的领域,协作系统和众包/人工计算方面的研究正在分别开发人工智能系统的方法,以便人们和人们有效地协助人工智能系统进行计算,这对于机器而言比人们更难。报告强调的其他研究领域是算法博弈论和计算社会选择,物联网和神经形态计算。

  报告最后提供了一个关于政策和法律问题的部分,其中总结了StudyPanel关于与AI技术相关的监管法规现状的观点,并向决策者提出了建议。它重要地指出,“AI应用成功的标准是它们为人类生活创造的价值。从这个角度来看,它们应该被设计成能使人们成功地理解AI系统,参与其使用并建立信任。 “该报告鼓励对人工智能的能力和局限性进行“积极和知情的辩论”,建议各级政府需要更广泛和更深入地了解人工智能,以便在政府内部对人工智能技术,计划目标和整体社会价值进行专家评估。它认为,行业需要制定和部署最佳实践,以及人工智能系统应该是开放的或可以逆向工程,以便通过不感兴趣对公平,安全,隐私和社会影响等关键问题进行充分评估。学者,政府专家和记者。它还指出了各种学科领域的专业知识对评估社会影响的重要性,因此需要增加公共和私人资金,用于跨学科研究人工授精的社会影响。

  我们在下面列出了报告中最重要的几条消息和调查结果,如报告中的标注所示。 我们希望此示例为读者提供报告范围的感知,并鼓励他们阅读报告(至少在提供的详细级别之一)以了解更多信息。

普遍观察:

  • 与其他技术一样,AI有可能被用于良好或邪恶的目的。 关于如何以丰富我们的生活和社会的方式最好地驾驭人工智能的激烈而知情的辩论是一项迫切而至关重要的需求。 (第48页)

  • 作为一个社会,我们在研究人工智能技术的社会影响方面投入的资源不足。 私人和公共资金应该针对能够从多个角度分析AI的跨学科团队。(第44页)

  • 关于AI是什么和不是什么的误解会加剧对有可能使每个人受益的技术的反对。 扼杀创新的不明智的监管将是一个悲剧性的错误。 (第10页)

潜在的近期应用和设计约束:

  • 在利用共同的研究和技术的同时,AI系统专门用于完成特定任务。 每个应用程序都需要多年的专注研究和细致,独特的构造。 (第5页)

  • 基于人工智能的应用程序可以在未来几年内改善数百万人的健康状况和生活质量 - 但前提是他们必须得到医生,护士和患者的信任。 (第26页)

  • 虽然优质教育总是需要人类教师积极参与,但人工智能承诺加强各级教育,特别是通过大规模提供个性化服务。 (第31页)

  • 通过有针对性的激励和资金优先,人工智能技术可以帮助满足资源匮乏社区的需求。 萌芽的努力是有希望的。 (第35页)

社会关注:

  • 正如电影“少数派报告”(作者注:以及随后在ProPublica [1]中)所强调的那样,预测性警务工具引发了无辜人群被无理针对的幽灵。 但部署良好的AI预测工具有可能实际消除或减少人为偏见。 (第37页)

  • 人工智能可能会在短期内取代任务而不是工作,并且还会创造新的就业机会。 但是,即将出现的新工作比现有的可能会失去的工作更难以想象。 (第38页)

  • 由于人工智能应用程序涉及的行为,如果由人类完成,将构成犯罪,法院和其他法律行为者将不得不通过谁来解决问题和理论。 (第46页)


反应和使用

  与AI100项目最初计划时相比,我们正处于决定如何以支持社会需求和促进而不是阻碍民主自由,平等和透明度价值观的方式部署基于AI的技术的关键时刻。 哲学家J. Moor已经指出([3],第267页),在道德论证中,人们大多数人都同意价值观而不是事物的事实。 AI100报告旨在将人工智能专业知识带到最前沿,以便能够理解和正确评估包含AI方法的技术的挑战和承诺。

  虽然该报告对时间的影响仍有待观察,但我们希望它将为未来的AI100研究小组树立一个强有力的先例。过去几年我们一直很高兴看到报告似乎在这个目标上取得了成功,并且在几个方面实现了更大的AI 100目标。该报告于2016年9月1日发布后不久,报道在报刊上被广泛报道,包括纽约时报,基督教科学箴言报,NPR,BBC和CBC电台。它帮助塑造了一系列OSTP赞助的研讨会和由他们发布的报告。

  将报告翻译成多种语言的许可请求已引起全世界的兴趣。我们被要求为各种政府和科学组织举办讲习班,并在许多场合进行讲座。 2017年2月,他在芬兰宣布新的“人工智能战略”时,邀请了芬兰总理的研究小组主席(本专栏的共同作者)发言。此报告也会以各种方式用在AI课堂上。


展望

  人工智能技术正变得越来越流行,关于它们对个人和社会的影响的观点差异很大,从研究小组认为过于乐观的观点到其认为过于悲观的其他观点。公众,政府和工业界需要可靠,平衡的信息,这一点越来越重要。 AI100项目旨在满足这一需求。第一份报告是重要的初步步骤,启动了长期项目。它至关重要地说明了开发和针对特定应用领域的AI技术与“通用AI”功能之间的巨大技术差异,这些功能可以整合到任何设备中,使其更加智能化。前者是许多研究和业务发展的焦点,而后者仍然是科幻小说。

  人们很容易认为,如果人工智能技术可以帮助驾驶你的汽车,那么他们也应该能够折叠你的衣物,但这两项活动对推理提出了非常不同的要求。它们需要非常不同的算法和功能。人们同时做各种各样的活动,需要各种各样的情报。然而,当前的AI应用程序基于专门的领域特定方法,并且在评估机器能力时,人们倾向于从一种智能行为概括为看似相关的行为,这导致人们误入歧途。第一份AI100报告旨在为读者提供见解,使他们能够更好地评估任何AI成功对其他公开挑战的影响,并提醒他们我们必须共同解决的社会和道德问题,因为AI遍及更多领域日常生活。

  自发布报告以来,AI100项目已经开始了一项互补性的努力,即“AI指数”。由Yoav Shoham,Ray Perrault,Erik Brynjolfsson,Jack Clark,John Etchemendy,Terah Lyons和James Manyika组成的指导委员会领导的这项持续跟踪活动,通过提供年度报告补充了最初为AI100设想的主要研究,并在未来,一个持续的博客,增加每五年发生的主要AI100研究。 TheAI指数将遵循AI的各个方面 - 包括与活动量,技术进步和社会影响相关的方面 - 由广泛的咨询小组根据AI100常务委员会的建议确定。与研究小组的报告一样,该指数旨在提供有关AI领域的信息,这些信息对于该领域以外的人员以及从事AI技术开发的人员以及积极参与AI研究和应用的人员,政策制定者和企业都有用。高管和普通大众。这一新生努力于2017年12月发布了第一份报告。

  AI100项目在计划下一次报告时欢迎提供建议,AI指数也是如此。 我们期待在未来几年继续帮助塑造AI100的发展轨迹。


引用

  1. J. Angwin et al. "Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks." ProPublica, May 23 (2016).
  2. Ed Felten and Terah Lyons, "The Administration's Report on the Future of Artificial Intelligence"
  3. J. H. Moor. “What is Computer Ethics?” Metaphilosophy, 16:4, 1985.
  4. Peter Stone, Rodney Brooks, Erik Brynjolfsson, Ryan Calo, Oren Etzioni, Greg Hager, Julia Hirschberg, Shivaram Kalyanakrishnan, Ece Kamar, Sarit Kraus, Kevin Leyton- Brown, David Parkes, William Press, AnnaLee Saxenian, Julie Shah, Milind Tambe, and Astro Teller. "Artificial Intelligence and Life in 2030." One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016 Study Panel, Stanford University, Stanford, CA, September 2016.

Barbara J. Grosz(grosz@eecs.harvard.edu)是美国马萨诸塞州剑桥市哈佛大学John A. Paulson工程与应用科学学院计算机科学系希尔金斯自然科学教授。 也是美国新墨西哥州圣达菲市圣菲学院外部学院的一员。 她是人工智能百年研究常设委员会的首任主席。

Peter Stone(pstone@cs.utexas.edu)是美国德克萨斯州奥斯汀市德克萨斯大学计算机科学系的David Bruton,Jr.世纪教授。 他是人工智能百年研究的首届研究小组主席。