我的生活随笔

OpenAI为何自请监管?——探究背后的动机与影响

  2023年5月16日,在美国参议院小组委员会听证会上,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)呼吁zhèng府对人工智能(AI)进行监管。他认为,如果这项技术出错,会错得很严重,会对世界造成重大伤害。

  “在我再次创新之前阻止我”,在场的伊利诺斯州参议员Dick Durbin直言这真是让人耳目一新,他已经想不起来还有其他公司如此强烈要求对其所处行业进行监管,过去科技企业都是在监管部门推动下而为之。

  不过,面对2022年11月ChatGPT发布以来的全球AI狂潮,各主要科技企业对大模型的快速跟进,人们对AI潜能的期待、风险的担忧,对“始作俑者”OpenAI来说,这似乎是目前唯一的正确选择。

  这不是OpenAI第一次和zhèng府监管部门打交道。不过,施压者并非来自美国本土,而是欧洲。

  一个多月前,2023年3月31日,意大利数据保护局 (DPA)宣布禁用ChatGPT,并对其展开调查。主要原因是ChatGPT出现了用户对话数据和付款服wù支付信息丢失情况,且没有核查用户的年龄,没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法lǜ依据。

  4月13日,法国国家信息自由委员会(CNIL)、西班牙国家数据保护局(AEPD)在同一天里宣布对ChatGPT展开调查。随后,欧洲数据保护委员会成立专门工作组,以促进该调查在欧洲地区的合作事宜。

  从2021年一些生成式AI初创企业开启AI作画、AI生成视pín,再到ChatGPT、GPT-4为代表的大模型文本生成,既让大家看到了它在提升人类社会生产力方面的潜力,也在安全、公平、合规、隐sī和知识产权等方面带来了全新挑战。

  2023年5月11日,欧洲议会内部市场委员会和公民自由委员会通过了《人工智能法案》(The AI Act)的谈判授权草案。这一草案将于今年6月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法lǜ的最终形式进行谈判。

  这一法案其实是在2021年首次提出,采取分级管理的思路,对不同风险等级的AI进行分级管理,风险越高越严格,对透明度和准确xìng要求越高。那时候还没有生成式AI,不过现在立法者已经为之添加了一项修正案,将生成式AI与高风险系统置于同一级别。如无意外,它将成为全球第一部有关AI的法规。

  在欧洲议会通过草案的前一周(5月4日),美国白宫宣布了一项AI行动计划,以促进负责任的人工智能创新,保护美国人的权利和安全。其中包括美国国家科学基金会提gòng1.4亿美元的资金,以启动7个新的国家人工智能研究所,这项投资将使美国的研究所总数达到25个,参与的组织网络扩展到几乎每个州;对现有的生成式AI进行公开评估,以探索它们如何与zhèng府AI管理框架保持一致。

  不同于欧洲要对人类安全造成不可接受风险的AI系统进行严格监管,美国把鼓励创新、产业发展放在了监管的前面,并就此展开了一系列的研究和规划。

  2022年10月4日,白宫科技zhèng策办公室(OSTP)发布《人工智能权利法案蓝图》(Blueprint for an AI Bill of Right),确定了五项原则用以指导自动化系统的设计、使用和部署,以保护人工智能时代美国公众的利益。

  就在白宫发布行动计划的当天,美国副总统哈里斯和zhèng府高级官员与Alphabet、Anthropic、微软和OpenAI等四家美国AI公司的首席执行官们会谈。

  zhèng府无疑是AI监管极为重要的一环,通过制定法lǜ法规,来规范人工智能系统开发和使用规则,解决网络安全、数据隐sī等问题。但zhèng府监管总是要滞后于技术与产业发展,因为原有的法lǜ条规无法完全覆盖当前的开发和应用场景,而法lǜ法规制定需要时间。

  身处一线的从业者们,对技术的理解、对其应用可能产生的结果有着更敏锐的感知。Sam Altman在5月16日的听证会上,用了“printing press time”来形容目前AI的发展状态。

  越来越多的AI从业者们相信,人类已经进入通用人工智能(AGI)的前夜,这是一个历史和技术的转折点,类似原子核裂变的发现,或印刷术的发明。以大模型为代表的生成式AI,已经迅速掌握了普通人穷极一生都难以掌握的人类知识,相比之下,人类对AI的掌握和了解太少太少。

  机器学习使得AI可以自主学习,虽然人们可以知晓算法模型,但在很多情况下却难以理解其运作过程。由于“算法黑箱”导致AI不透明、不可解释,即便开发者可能也难以理解他们所开发的AI。

  OpenAI自己也做了一次实验,用GPT-4来解释GPT-2的行为模式。他们用GPT-4打造了一个理解AI行为模式的工具,对GPT-2超过30万个神经元解释,并和实际情况比对进行评分。结果,虽有超过1000个神经元的解释得分在0.8以上,更多神经元的解释得分很低。

  正因为AI的不可解释,人会有理由对其产生担忧和不信任,产业发展更应谨慎。但是在资本和不同经济体对创新、新兴产业的支持下,入围这一轮AI竞赛的企业正一路狂奔。

  投资了50家AI初创企业的知名投资人Ian Hogarth,2023年4月底在FT发表文章《我们必须放慢通往上dì般人工智能的速度》(We must slow down the race to God-like AI),对此有一个形象的描述:大科技公司正在加速AI竞赛,他们还不知道如何安全地追求他们的目标,也没有监督。他们正在向终点线跑去,却不了解另一边是什么。

  ChatGPT发布两个月就有了1亿用户,一度还因为访问量过大而暂停服wù。可直到2023年4月25日,OpenAI才调整了用户使用条款,在 ChatGPT 中增加关闭liáo天记录的功能,用户禁用liáo天记录时启动的对话不会用于训练和改进的模型,也不会显示在历史记录边栏中。

  OpenAI在发布GPT-4时不再开源,招来一片声讨。OpenAI首席科学家Ilya Sutskever解释称,当AI能力较低时,开源是好事,但当它能力变得巨大,开源是明显不负责任的。此时,安全是闭源的重要驱动力。

  这倒并不完全是对商业化和竞争的推托之词。AI的发展速度超出了开发者的预期,一切都没有准备好。一旦出错,首当其冲的,就是走在最前面的OpenAI。在监管缺位的情况下,如果有人用开源模型造出了shā人机器,怎么办?

  Sam Altman在5月16日的听证会上阐述风险时表示,“我最担心的是我们会造成重大伤害,我们这个领域,这项技术,这个行业会对世界造成重大伤害。我认为这可能以很多不同的方式发生。”

  ChatGPT“出圈”之后,全球科技企业快速追随,基于开源代码,结合企业此前的AI积累和业务场景,套上新的壳,出来一个又一个新模型,让人眼花缭乱。就连OpenAI自己,在ChatGPT面世仅4个月后,就忙不迭地推出了新一代大模型GPT-4。

  Sam Altman在听证会上透露,在完成GPT-4的训练后,其实是等了6个多月才部署。虽然他称目前并没有将训练用于GPT-5的计划,未来6个月内也没有,但是训练并没有停止,他认为目前还没有看到任何他们阻止训练下一个模型的理由。

  这实在是让竞争对手和追随者们无比紧张。在训练完GPT-4之后,OpenAI究竟在这最近的8个月里训练什么,下一次又会放出什么大招来?

  其实OpenAI也很紧张。Sam Altman多次公开表示,由于所需资源很大,能训练真正前沿模型的公司数目只是少数。他甚至在听证会上直言,“我认为我们及竞争对手需要受到巨大监督”。

  建构负责任的AI,AI才可能有更好的发展。除了zhèng府的zhèng策法规,科技企业们也从不同角度展开尝试。

  2023年4月底,英伟达发布了一个开源软件NeMo Guardrails,在用户和大模型之间设置一组可编程的约束规则,来帮助软件开发者为AI设置“护栏”,防止它们产生不良的输出。

  谷歌团队,试图引入美国zhèng治哲学家约翰·罗尔斯(John Rawls)的“无知之幕”(VoI)原则,来调整AI行为原则,确保公平和正义。

  2023年3月22日,包括图灵奖得主Yoshua Bengio等在内的多位知名人士联名签署公开信,认为当前AI实验室陷入了一场失控的竞赛,考虑到AI可能给人类社会带来的风险,呼吁暂停大型AI实验6个月。同时,AI开发者必须与zhèng策制定者合作,加快开发强大的 AI治理系统。

  有着“AI教父”之称的Geoffrey Hinton,在2023年5月初辞去谷歌的职位,以更好地谈论AI,做一个敲响警钟的人。他在2023年5月3日《麻省理工技术评论》(MIT Technology Review)的一个活动中讲述了对AI的担忧:失控AI可能让人类只是智慧演化过程中的一个过渡阶段。

  Hinton认为,人们不会停止发展AI,也不会有机会阻止它们发展,因为它们有用。他更倾向于需要用某zhǒng方法来确保,即使AI比人类聪明,仍会做对人类有益的事情。同时,我们需要在一个有恶意行为者的世界里尝试这样做,而对此现在谁也没有好的解决方案。

  AI给人类社会带来的挑战,是综合、全方位的。仅从5月16日美国参议院的听证会看,参议员们提到的既有就业、舆论、隐sī、安全、商业模式,还有美国大选。这更需要zhèng府、企业、研究者们展开合作,以及更广泛的国际合作。

  不过,在当前地缘zhèng治、产业竞争环境中,国际合作会比此前艰难。因此,除了zhèng府法规、行业标准、企业自律、研究机构的前瞻xìng指引,公众对AI的认知和意愿,更为重要。

  正如Sam Altman在2023年2月24日在博客Planning for AGI and beyond中写到的,从长期看,“我们认为,人类的未来应该由人类来决定,与公众分享有关进展的信息很重要。应该对所有试图建立AGI的努力进行严格的审查,并对重大决策进行公众咨询”。

赞(0)
未经允许不得转载:我的生活随笔 » OpenAI为何自请监管?——探究背后的动机与影响

我的生活随笔我的生活随笔