撰文:Ingrid Lunden
来源:TechCrunch
图片来源:由无界 AI生成
人工智能的前景和危害是如今的热门话题。有人说人工智能将拯救我们,可以帮助诊断一些恶性疾病、弥补教育领域的数字鸿沟等。但也有人担心它在战争、安全、错误信息等方面带来的威胁。它成为了普通人的消遣方式,在商业领域敲响了警钟。
人工智能的作用很大,但它还无法让满屋子叽叽喳喳的嘈杂声安静下来。本周,众多学者、监管者、政府领导、初创企业、大型科技公司以及数十家盈利和非盈利组织齐聚英国,将就人工智能展开讨论和辩论。
为什么是英国?为什么是现在?
本周三和周四,英国将在布莱切利公园(Bletchley Park)举办“人工智能安全峰会”,这是英国首次举办此类活动。
峰会筹划数月,旨在探讨人工智能带来的一些长期问题和风险。峰会的目标是理想化的,而不是具体的:“共同理解前沿人工智能带来的风险和采取行动的必要性”、“就前沿人工智能安全开展国际合作的前瞻性进程,包括如何最好地支持国家和国际框架”、“各组织应采取适当措施提高前沿人工智能的安全性”等等。
这种高层次的愿望也反映在与会者的身份上:政府高级官员、行业领袖和该领域的著名思想家都将出席会议。(据最新报道:埃隆 - 马斯克,拜登总统、Justin Trudeau 和 Olaf Scholz 等将出席)。
这场峰会听起来很特别,而事实也确实如此:峰会的“金门票”(伦敦的科技公司创始人兼作家 Azeem Azhar 如是描述)供不应求。据悉,峰会将是小范围的,而且大多是封闭式的。这些活动包括在英国皇家学会(英国国家科学院)举行的会谈;在多个城市举行的大型“人工智能边缘”会议(AI Fringe)以及许多特别工作组的公告等等。
剑桥大学明德鲁技术与民主中心执行主任 Gina Neff 上周在英国皇家学会举行的一次关于科学与安全的晚间小组讨论会上说:“我们将扮演好我们已经处理好的峰会的角色。换句话说,在布莱切利举行的活动将做它该做的事,而不在活动范围内的事情将成为人们集思广益讨论其他问题的机会。”
Neff 的小组讨论就是一个很好的例子:在英国皇家学会座无虚席的大厅里,她与人权观察组织的代表、大型工会 Unite 的国家官员、专注于全球南部地区科技公平问题的智库 Tech Global Institute 的创始人、初创公司 Stability AI 的公共政策负责人以及剑桥大学的计算机科学家坐在一起。
与此同时,所谓的人工智能边缘会议可以说是只是名义上的“边缘”。由于布莱切利峰会是在一周中的同一个地点举行,而且来宾名单非常有限,了解会议讨论内容的机会也同样有限,因此人工智能边缘会议很快就扩展到了布莱切利,并充实了会议议程。据悉,这次活动不是由政府组织的,而是由一家名为 Milltown Partners 的公关公司(该公司曾代表 DeepMind、Stripe 和风险投资公司 Atomico 等公司)组织的,有趣的是,它持续了整整一周,在全国多个地点举行,能得到门票的人可以免费参加(许多活动的门票都已售罄),且其中许多会议还提供流媒体服务。
尽管活动丰富多彩,但让人非常痛心的一点是,关于人工智能的讨论,尽管才刚刚起步,却仍然是如此分裂:一个是权力机构的会议(其中大多数会议只对受邀嘉宾开放),另一个则是我们其他人的会议。
今天早些时候,由 100 名工会和维权人士组成的团体致信首相,称政府不让他们参与布莱切利公园的活动,是在“挤压”他们在对话中的声音。(他们可能没有拿到门票,但他们的反对方式绝对是明智的:该组织通过与《金融时报》等国内最精英的经济刊物分享这封信,将其公之于众)。
被冷落的不仅仅是普通人。牛津大学哲学系讲师 Carissa Véliz 在今天的人工智能边缘活动中说道:“我认识的人中没有一个受到邀请。”
一些人认为,精简是有好处的。
人工智能研究科学家 Marius Hobbhahn 是阿波罗研究公司(Apollo Research)的联合创始人和负责人,该公司正在开发人工智能安全工具。他认为,人数少也可以引起更多关注:“房间里的人越多,就越难得出任何结论,或进行有效的讨论,”他说。
从更广泛的意义上讲,此次峰会只是一块“砖”,是目前正在进行的更广泛对话的一部分。上周,英国首相苏纳克(Rishi Sunak)表示打算在英国成立一个新的人工智能安全研究所和一个研究网络,以便花更多时间和心思研究人工智能的影响;Yoshua Bengio 和 Geoffrey Hinton 为首的一批著名学者发表了一篇名为《在快速进步的时代管理人工智能风险》的论文,集体投入到这一领域;联合国也宣布成立了自己的特别工作组,探讨人工智能的影响。近日,美国总统乔 - 拜登也发布了美国自己的行政命令,以制定人工智能安全标准。
“生存风险”
最大的争论之一是,人工智能带来“生存风险”的观点是否被夸大了,甚至是否是有意为之,以消除对更直接的人工智能活动的审查。
剑桥大学系统数学教授 Matt Kelly 指出,其中一个经常被引用的领域是错误信息。
“错误信息并不新鲜。它甚至不是本世纪或上世纪的新事物,”他上周在接受采访时说。“但这是我们认为人工智能短期和中期存在潜在风险的领域之一。而这些风险是随着时间的推移慢慢形成的。”Kelly 是英国皇家科学学会的研究员,他说,该学会在峰会筹备期间还专门针对科学领域的错误信息进行了一次红蓝队演练,以了解大型语言模型在试图相互竞争时会有怎样的表现。“这是一种尝试,试图更好地理解现在的风险是什么”。
英国政府似乎在这场辩论中持两面态度,危害因素比它所举办的活动名称“人工智能安全峰会”更为明显。
苏纳克在上周的演讲中说:“现在,我们对所面临的风险还没有一个共同的认识。”“没有这种共识,我们就无法指望共同应对这些风险。这就是为什么我们将大力推动就这些风险的性质达成首份国际声明的原因”。
但在设立峰会时,英国首先将自己定位为制定“当我们谈论人工智能时我们谈论什么”议程的核心参与者,而且它当然也有经济角度。
苏纳克指出:“通过使英国成为安全人工智能领域的全球领导者,我们将吸引更多来自这股新技术浪潮的新工作和投资。”(其他部门也收到了这份备忘录:内政大臣今天与互联网观察基金会(Internet Watch Foundation)以及 TikTok 和 Snap 等多家大型消费应用公司共同举办了一场活动,以解决人工智能生成的性虐待图片泛滥的问题)。
让大科技公司参与进来似乎在某一方面有所帮助,但批评者往往认为这也是一个问题。““监管捕获”,即行业中较大的权力参与者采取积极措施来讨论和制定风险和保护措施,一直是人工智能美丽新世界的另一个大主题,本周的峰会也是如此。
“要警惕那些举起双手说‘管我吧,管我吧’的人工智能技术领导者。”人工智能芯片制造商 Graphcore 的首席执行官 Nigel Toon 在自己撰写的一篇关于本周即将召开的峰会的文章中敏锐地指出:“政府可能会贸然介入,对他们的话信以为真。”(不过,他本人并不完全是边缘人:他将亲自参加此次峰会)。
与此同时,许多人仍在争论目前所谓的生存风险是否是有用的思考练习。
Stability AI 的公共政策负责人 Ben Brooks 在英国皇家学会的一个小组讨论会上说:“我认为,过去一年里,前沿和人工智能的修辞让我们陷入了对技术感到恐惧的境地,”他引用了“回形针最大化”思想实验——人工智能在不考虑人类需求或安全的情况下创造回形针,可能会毁灭世界——作为这种有意限制方法的一个例子。“他们没有考虑到在什么情况下可以部署人工智能。但你可以安全地开发它。我们希望每个人都能从中得到启发,认识到人工智能是可以实现的,而且是可以安全实现的。”
而其他人则不那么肯定。
阿波罗研究公司的 Hobbhahn 说:“公平地说,我认为生存风险并不准确。”“我们姑且称之为灾难性风险。”从近年来的发展速度来看,生成式人工智能应用已经将大型语言模型带入主流应用,他认为最大的担忧仍将是使用人工智能的不良行为者,而不是人工智能自身的暴动:将其用于生物战、国家安全局势以及可能改变民主进程的错误信息。他说,所有这些都是他认为人工智能很可能发挥灾难性作用的领域。
“图灵奖获得者在公开场合对生存和灾难性风险忧心忡忡……我们真的应该好好想想,”他补充道。
商业前景
虽然存在严重的风险,但英国也希望通过举办有关人工智能的大型对话,将本国打造成为人工智能企业的天然家园。然而,一些分析师认为,投资人工智能的道路可能并不像某些人预测的那样平坦。
“我认为现实已经开始显现,企业开始明白他们需要为生成式人工智能项目分配多少时间和资金,才能获得可靠的产出,从而真正提高生产力和收入,”Gartner 公司副总裁分析师 Avivah Litan 说。“即使他们对项目进行反复调整和工程设计,他们仍然需要人工对操作和产出进行监督。简而言之,GenAI 的输出还不够可靠,需要大量资源才能使其可靠。当然,模型一直在改进,但这就是市场的现状。尽管如此,与此同时,我们也确实看到越来越多的项目进入了生产阶段。”
她认为,人工智能投资“肯定会减缓使用人工智能的企业和政府组织的发展速度。供应商正在推动他们的人工智能应用和产品,但企业无法像被推动的那样快速采用它们。此外,GenAI 应用程序还存在许多风险,例如,即使在组织内部也能民主化地轻松获取机密信息。“
正如”数字化转型“在现实中更像是一个慢热的概念一样,企业的人工智能投资战略也需要更多的时间。”企业需要时间来锁定其结构化和非结构化数据集,并正确有效地设置权限。企业中存在太多的过度共享,而在此之前,这些共享其实并不重要。“Litan 补充说:”现在,任何人都可以使用简单的母语(如英语)命令访问任何他人未受到充分保护的文件。“
如何平衡人工智能的商业利益与布莱切利公园将讨论的安全和风险问题是很大的难题,这一事实说明了未来的任务,同时也凸显了局势的紧张。据报道,在会议后期,布莱切利的组织者已经努力将讨论范围从高层次的安全问题扩展到风险可能真正出现的领域,例如医疗保健领域,尽管目前公布的议程中并未详细说明这一转变。
“将有 100 名左右的专家参加圆桌会议,规模并不小。我是一个批评家,但这听起来并不是一个坏主意,”剑桥大学教授 Neff 说。“现在,全球监管会成为一个讨论话题吗?绝对不会。我们是否要让东西方关系正常化?可能也不会。但我们将迎来我们的峰会。我认为,此时此刻可能会出现一些非常有趣的机会。”
本文链接:https://www.aixinzhijie.com/article/6837126
转载请注明文章出处