“这就是OpenAI的故事” | 马斯克诉奥特曼之二

“这就是OpenAI的故事” | 马斯克诉奥特曼之二
2024年03月03日 15:33 未尽研究

OpenAI注定将成为我们这个时代最有故事的公司。

去年十一月份的董事会政变事件平息才三个月,新的一幕又开始了。

这一次主角更加劲爆,马斯克直接上场。他的律师团队以万字檄文,将奥特曼和OpenAI一起告上法庭。微软虽然没有列为被告,但这一幕大戏中扮演了幕后的最大受益者。

里面有生成式AI简史,有两个男人之间的起承转合,有大哥的做局;有排比修辞,有象征比喻。洋洋洒洒,金句闪烁。

有专业律师称之为:这份文件是公关烟火、有趣的阴谋,以及对AGI哲学的思考(见下一篇文章《为什么输定了 | 马斯克诉奥特曼之三》)

无论如何,这篇诉状提供了如下对OpenAI值得关注的问题:

如何定义AGI?由OpenAI董事会说了算吗?

OpenAI的董事会仍不完整,目前只有三位,而且其中只有微软作为观察员懂AI及相关政策;

对于“政变”事件的调查,仍然没有结论;

对于达成AGI的时间,以及解除对于微软的授权,是不是一个“定时炸弹”?

AGI如何“惠及人类”,是简单地开源吗?

提供了OpenAI这家公司创办过程中的许多内幕,其实对于解释OpenAI未来的发展方向,以及奥特曼当下及未来的一些行为,很有启发;

马斯克发起诉讼的真实目的是什么?是为了AGI的使命,还是另有想法?或者两者兼顾?

这种创业初期讲一个使命采取“非营利”架构,然后再设计出一个营利架构,会不会为其他创投企业所效仿?它对公众和其他非营利机构是公平的吗?

等等......

无论这场官司最终结局如何,它已经引发了公众的讨论和政策意义的思考。

我们编译了案件概述及详情部分,对其中的一些法律文书表达进行了精调,如通篇都是Mr. Altman,我们简称为奥特曼;通篇的OpenAI, Inc.,我们称之为OpenAI,除非特别提到其关联其他实体;通篇所说的通用人工智能,我们用AGI。

个别冗长的段落,我们加以拆分;对其中重复累赘的叙述,也略有删除。

正如案情述的结尾所说:“这就是OpenAI的故事”。

OpenAI的两位缔造者

案件概述

A.通用人工智能的风险

在20世纪,美国逐渐从以人力为主的经济转变为以人类知识为主的经济,经济价值日益主要由人类智能创造。

随着世纪推移,另一种范式转变已在进行:人工智能(AI)创造价值。早期的AI在一些零星的任务中可以胜过人类。几乎在可编程的计算机发明出来之后,AI立即表现出比人类卓越的能力,例如在道路网络中寻找最快路径的这样高度规则化的问题上。经历了更长时间,AI 才在需要创造性的问题上表现优秀。1996 年,IBM的Deep Blue AI 击败了当时的国际象棋冠军卡斯帕罗夫。这些程序尽管有用,但它们实际上只是“一招窍门”——它们的智能不是通用的。Deep Blue 拥有庞大的处理器阵列,只能对弈国际象棋。用于寻径的算法可以解决迷宫或导航汽车,但它们不能绘制图画。

从2000 年代晚期至2010年代初,“深度学习”这种陈酿的算法,首次在廉价硬件上可以实用。几乎一夜之间,所有AI项目的性能发生了革命。新颖和前沿的算法开发出来了,可以转录语音、翻译语言和识别照片中显示的食物类型。深度学习的一个特点,是算法在没有对任务的相当了解的情况下可以学习每个任务,简直就是自已编程。这意味着它们比先前的系统(如 Deep Blue)更通用。

随着深度学习算法越来越复杂,世界上一些领先的人工智能研究人员将目光投向所谓的通用人工智能(AGI)。AGI 的基本概念是一种通用人工智能系统——一台能像人类一样为各种任务提供智能的机器。

马斯克长期以来一直认为AGI 对人类构成重大威胁,也许是我们今天面临的最大生存危险。他的忧虑与之前霍金( Stephen Hawking)和 Sun Microsystems 创始人 Bill Joy 提出的忧虑相似。我们的整个经济实际上是建立在人类协作并找到解决困难任务的最佳解决方案这一基础之上的。如果一台机器可以优于我们解决几乎任何任务,那么这台机器比我们更具经济价值。正如 Bill Joy 所警告的那样,一旦出现强大的 AGI,“未来不需要我们”。马斯克公开呼吁采取各种措施应对 AGI 的危险,从自愿停止到监管,但他的呼吁大多未能引起重视。

但是,有的人像马斯克那样从 AGI 中看到了生存危险,而有的人则从AGI 中看到了利润和权力。

2014 年,谷歌收购了 DeepMind,这是一个专注于深度学习的研究团队。DeepMind 最初的开发项目之一是 AlphaZero,一个国际象棋比赛算法。与之前的算法不同,AlphaZero使用“强化学习”,该程序通过在不同版本的程序之间进行博弈来学习国际象棋。它从随机方式开始对弈,对下棋的策略一无所知。当一个程序版本在与另一个程序版本的比赛中获胜时,获胜的程序的内部通路被“加强”,并且该过程重复下去。

AlphaZero 很快成为世界上最强大的国际象棋比赛系统。令人震惊的是,同样的程序在玩两个其他极其困难的游戏方面也是世界第一。根据 Google/DeepMind 的说法,“从随机游戏开始,仅仅给出游戏规则,无需该领域的知识,AlphaZero 仅用了不到24 小时,即在国际象棋、日本象棋、围棋等游戏中实现了超人的表现,并且在每个领域都击败了世界冠军级别的程序。”

因为 DeepMind 团队,Google 立即跨越至AGI 竞赛的最前沿。马斯克对此深感不安。他认为(并且仍然这样认为),在一家封闭的、为营利而设立的、Google 谷歌这样的公司手中,AGI 对人类构成了特别迫切而有害的危险。到 2014 年为止,与 Google 在其核心业务上竞争已经很困难。Google 已经从我们的搜索、电子邮件和我们图书馆几乎每本书中收集了独有的庞大的数据集。尽管如此,到这一地步,每个人仍有可能通过卓越的人类智能和努力与 Google 竞争。

但AGI 将使这一竞争几乎不可能。

B. OpenAI的创始协议

奥特曼声称,与马斯克同样担忧 AGI 带来的威胁。

2015 年,奥特曼写道:“超人机器智能(SMI)的开发,可能是对人类存续所造成的最大挑战。还有其他的威胁,发生的确定性更大,......但都不可能像SMI那样毁灭宇宙中的每一个人。”

当年奥特曼找到马斯克,建议他们共同成立一家非盈利 AI 实验室,在 AGI 的竞赛中赶超Google,但是站在 Google的对立面。

马斯克、奥特曼和布洛克曼一致认为,这个新实验室:(a)将是一家开发 AGI的企业, 以人类福祉为目的,而不是为了增加股东利润;(b)将是开源的,制衡(开源可能带来的)违反安全的考虑,不会因私有商业的原因而隐瞒和保密技术(见“创始协议”)。

本着创始协议这一精神,马斯克将这一新生的实验室命名为“OpenAI”,在AGI领域与Google/DeepMind展开竞争,成为其有力的制衡;但是有利于人类福祉,而不是私有的、逐利的公司(即不会又成为世界上最大的科技巨头之一)。

创始协议还在其他地方得到了记录,其中包括OpenAI, Inc.于2015年12月8日的公司成立证书中,该证书确认其“产生的技术将惠及公众,且公司将在适用的情况下寻求将技术开源以利天下。公司不是为了任何个人的私人利益而组织的。” 公司成立证书进一步确认,公司的所有财产都被“不可撤销地奉献”给这些共同商定的目的。

奥特曼、布洛克曼和 OpenAI 多次与马斯克确认了创办协议,基于协议的信任,马斯克成为推动创立OpenAI的关键力量,贡献了大部分初期资金,指导研究方向,最重要的是,招募了一批世界级的科学家和工程师加入这一非盈利企业,包括首席科学家苏茨克沃(Ilya Sutskever)。在 Google/DeepMind 的不懈招聘努力和丰厚的薪酬面前,为OpenAI招募人才是一项艰巨的任务。如果没有马斯克的创始性贡献和早期领导,就不会有OpenAI。马斯克为OpenAI做出的贡献,从公司成立持续到 2020 年 9 月 14 日。

OpenAI最初的研究是公开进行的,为设计、模型和代码提供了免费和公开的访问权限。当OpenAI的研究人员发现一个最初由谷歌发明的名为Transformers的算法,能够在没有任何明确训练的情况下执行更多自然语言任务时,开发者社区就涌现出来,总体上以增强和扩展OpenAI发布的模型。这些社区扩散到开源、草根努力和商业实体等方面。

2019 年,奥特曼出任 OpenAI的首席执行官。2020 年 9 月 22 日,OpenAI 与微软签署了一项协议,独家许可微软基于 Transformer 的生成式预训练语言模型GPT-3。不过,OpenAI 发布了一篇论文,详尽公开了有关 GPT-3 内部设计和训练数据,使社区能够自行创建类似的模型。更重要的是,对微软许可仅适用于 OpenAI 的前AGI (pre-AGI) 技术。微软未获得 AGI 的任何权利。并且 OpenAI的非盈利董事会(而不是微软)有权决定 OpenAI 何时达到 AGI。

C. 2023 年违反基金会协议

2023 年,被告奥特曼、布洛克曼和 OpenAI 违反了创办协议。

2023 年 3 月,OpenAI 发布了其最强大的语言模型GPT-4,不仅能够推理,而且超过了人类平均水平。它在律师执业资格考试上得分达到90%百分位,在 GRE 语言测试上得分达到99%百分位,甚至在高级葡萄酒鉴定师考试上得分 77%。此时,奥特曼引导 OpenAI 彻底偏离其原来的使命和将其技术知识公之于众的历史做法。除 OpenAI 和据信微软之外,GPT-4的内部设计彻底保密。没有科学文献介绍 GPT-4 ,相反,只有炫耀性能的新闻稿。据信,这种保密主要是出于商业而不是安全的考虑。虽然由OpenAI开发的GPT-4使用了原告和其他人的捐助和贡献,旨在为公众服务,但它现在已成为微软的事实上专有算法,微软将其集成到 Office 软件套件中。

据信 GPT-4 是一种 AGI 算法,因此明确超出了微软 2020 年 9 月与 OpenAI 之间的独家许可范围。在这方面,微软自己的研究人员公开表示,“鉴于 GPT-4 的广泛功能和深度,我们认为它可以被视为AGI的一个早期(但仍不完整的)版本。”

此外,据信OpenAI 正在开发一种名为 Q*(Q 星)的模型,增强了其AGI的标签。如前所述,微软仅对 OpenAI 的某些前 AGI 技术拥有权利。但是,在微软许可的有效期内,OpenAI的董事会有权决定是否已经达到 AGI。

2023 年 11 月的董事会大变局中,OpenAI的董事会解雇了奥特曼,因为“对他继续担任 OpenAI 的能力缺乏信心”,因为“他向董事会禀告前后矛盾”。在接下来几天中发生了一系列惊人的事件,奥特曼和布洛克曼与微软合谋,利用微软对 OpenAI的关键影响,迫使OpenAI的董事会成员辞职,包括首席科学家苏兹克沃。奥特曼在11 月 21日被重新任命为 OpenAI的CEO。据信,新的董事成员是由奥特曼选择的,并得到微软的认可。新的董事缺乏人工智能专业知识,据信,他们缺乏独立决定 OpenAI 何时实现 AGI 的能力——也就是说,他们不会知道何时开发出微软许可范围之外的算法。

2023 年的这些事件构成了对基金会协议的彻底违反,被告已经基本上违反了基金会协议。OpenAI的网站继续宣称其使命是确保 AGI “为人类带来福祉”。然而,OpenAI已被转变为微软实际上的子公司,这是世界上最大的科技公司之一(实际上市值已经最高——编者)。

新的董事会领导的OpenAI不仅在开发 AGI,而且实际上在为微软利润最大化精调AGI,并非为了人类的福祉。它的技术,包括 GPT-4,主要是闭源代码,用来服务微软的专有商业利益。实际上,当时微软的 CEO 宣称即使 OpenAI 明天消失,“我们拥有所有的知识产权和所有的能力”。“我们有人,我们有计算能力,我们有数据,我们有一切。” “我们在他们下面,在他们上面,在他们周围。”

本案旨在强制 OpenAI 遵守基金会协议,并回归开发 AGI 为人类福祉的初心,而不是满足被告的个人利益,更不是满足世界上最大的科技公司的利益。

指控详情

A. 马斯克对 AGI 落入错误之手的忧虑

2012 年,马斯克见到了DeepMind的联合创始人哈萨比斯(Demis Hassabis),这是一家人工智能公司。当时候,马斯克和哈萨比斯在位于加州Hawthorne的SpaceX 火箭发射场见面,讨论起社会面临的最大威胁。在这次谈话中,哈萨比斯强调了高级人工智能对社会带来的潜在危险。

在和哈萨比斯谈话后,马斯克愈发担心AI有可能成为超级智能,超过人类智能,并威胁人类。实际上马斯克并不是唯一担心 AI 和 DeepMind 研究的人。据报道,在与哈萨比斯及 DeepMind 的投资者开会后,有一个投资者表示,为了人类的利益,最好就是当场将哈萨比斯击毙。

马斯克开始与周围的人讨论 AI 和 DeepMind,例如佩奇(Larry Page),谷歌母公司 Alphabet当时的首席执行官。马斯克经常在与佩奇的谈话中提到 AI 的危险,但令马斯克吃惊的是,佩奇并不担心。例如,2013 年,马斯克与佩奇就 AI 的危险进行激烈辩论。他警告说,如果没有措施可以控制人工智能系统,它们可能会取代人类,使我们的物种无关紧要或甚至灭绝。佩奇回应说,这只是“进化的下一个阶段”,并声称马斯克是“种族主义者”——他更偏爱人类而不是智能机器。马斯克回答说,“是的,我是支持人类的。”

马斯克与佩奇辩论AGI风险 

2013 年年底,马斯克了解到谷歌计划收购 DeepMind,这是当时业内最先进的AI公司。因此,马斯克非常担心 DeepMind 的AI技术会落入那个视其权力如此轻率的人手中,并且他会深藏其背后的设计和能力。

为了防止这项强大的技术落入谷歌手中,马斯克和 PayPal 联合创始人诺塞克(Luke Nosek)试图安排资金来收购 DeepMind。最后关头,马斯克、诺塞克与哈萨比斯开了一个小时电话会,他们努力说服哈萨比斯不要将DeepMind 卖给 Google。马斯克告诉哈萨比斯,“人工智能的未来不应该被佩奇控制。”

马斯克和诺塞克的努力未能成功。2014 年1 月,报道称 DeepMind 将被 谷歌收购。然而,这并没有扼杀马斯克继续确保人工智能得到安全发展的决心。

DeepMind 被谷歌收购后,马斯克开始“举办他自己的一系列晚宴,讨论如何对抗谷歌和促进 AI 安全。“ 马斯克还与奥巴马总统讨论了 AI 和 AI 安全。2015 年,马斯克和奥巴马总统举行了一次会议,马斯克解释了人工智能的危险,并主张立法。马斯克感到奥巴马总统理解了人工智能的危险,但没有立法。

尽管有这些挫折,马斯克继续主张安全的人工智能实践。2015 年,马斯克似乎找到了一个人,理解他对 AI 的忧虑,也理解他想让第一台 AGI 不落入像谷歌这样的私人公司手中的愿望,这个人就是被告奥特曼。

彼时,奥特曼在硅谷的创业加速器 Y Combinator 担任总裁。之前奥特曼曾数次创业。

奥特曼似乎与马斯克同样担心AGI。在2014 年的公开博客文章中,奥特曼表示,如果实现 AGI,它“将是技术史上最大的发展”。奥特曼指出,有许多公司在朝着实现 AGI 迈进,但也承认,不幸的是“好的公司对此非常保密。”

2015 年 2 月 25 日,奥特曼还表达了他关于所谓“超级AI”的担忧,他称之为“可能对人类继续存在的最大威胁”,并强调了“作为被编程为生存和繁殖的人类,我们应该与之斗争。”此外,奥特曼批评那些相信“超级AI”危险却将其无视为“永远不会发生或肯定很遥远的人。”他指责他们抱有“粗心大意的危险思维。”

实际上,2015 年 3 月初,奥特曼强调了政府监管的重要性,以确保人工智能安全地创造出来,并表示“一群非常聪明的人,有很多资源”可能会是“美国的公司以一定方式”将首先实现“超级AI”。

2015 年 3 月下旬,奥特曼与马斯克取得联系,询问他是否愿意为美国政府撰写一封关于人工智能的公开信。两人开始起草信件,并联系科技和AI领域的大咖签名。这项倡议很快在行业中传播开来。

例如,2015 年 4 月,哈萨比斯联系马斯克,称多个来源说他正在撰写一封信致美国总统,呼吁监管人工智能。马斯克向哈萨比斯保证人工智能监管是个好主意,“如果做好,可能会在长期内加速人工智能。如果监管无法让公众放心,人工智能可能会造成巨大的伤害,人工智能研究会被叫停,因为它对公共安全构成危险。”

五天后,哈萨比斯就人工智能的公开信联系马斯克,哈萨比斯宣布了谷歌DeepMind人工智能伦理委员会的第一次会议,谷歌和 DeepMind 承诺两年前在谷歌收购 DeepMind 时建立这个委员会。马斯克被邀请成为委员会成员,并安排第一次会议在加州 Hawthorne的 SpaceX 基地举行。马斯克参加了第一次会议后意识到,这个委员会不是一项认真的努力,而是一块遮羞布,试图放缓所有对人工智能的监管。

2015年10 月 28 日,公开信发表了,签名人数超过了1.1万人,包括马斯克、霍金和沃兹尼亚克(Steve Wozniak)。

最早的AGI辩论,左为马斯克和哈萨比斯

B.OpenAI的创始协议

2015 年 5 月 25 日,奥特曼发邮件给马斯克:“我一直在想,人类是否能够停止开发人工智能。我认为几乎肯定不可能。如果要发生,最好是有别于谷歌在先。” 奥特曼冒出了一个想法:Y Combinator 可以启动一个“人工智能的曼哈顿计划”(不幸的是,事实证明“曼哈顿计划”可能是一个过于贴切的外号)。他建议“我们可以这样安排,该技术由某种非盈利机构拥有,但工作人员在成功的情况下获得类似创业公司的报酬。当然,我们将遵守/积极支持所有的监管。”

“值得一谈。” 马斯克回复。

随后的通信中,奥特曼2015 年 6 月 24 日向马斯克发送了有关这个新“AI实验室”的详细建议。“使命是创建第一个AGI,并将其用于赋能个人,即未来推出分布式版本,这似乎是最安全的。总之,安全应该是第一要务。” “该技术将由基金会拥有,用于‘世界向善’。”他建议从 7-10 人开始扩展,并提出了治理结构。

“完全同意。” 马斯克回复。

不久,奥特曼开始招人帮助推进项目,值的一提的是,他找到了布洛克曼。

2015 年 11 月,奥特曼介绍布洛克曼与马斯克通电子邮件,关于该项目,布洛克曼告诉马斯克:“我希望我们能够作为一支中立的团队,寻求广泛合作,将对话转向关乎人类成为嬴家,而不是任何特定的团队或公司。(我认为这是启动一家领先研究机构的最佳方式。)” 马斯克乐观地认为可能建立中立的人工智能研究团队,专注于人类而不是任何特定个人或团体的利益。

马斯克告诉布洛克曼,他愿意提供资金。

马斯克为新实验室取了个名字,对齐创办协议:“Open AI Institute“,或简称 “OpenAI”。

遵循创办协议的原则,马斯克与奥特曼和布洛克曼联手,组建和发起该项目。公开宣布之前,马斯克就已积极参与该项目。例如,马斯克向布洛克曼建议了员工薪资方案,分享了他的薪资和保留人才的策略。

2015年12月8日,OpenAI, Inc.在特拉华州注册,证书以书面形式记载了创办协议:

第三条:本公司应为一家仅限于根据1986年《内部收入法典》第501(c)(3)条及其修正案或任何未来美国内部收入法的相应条款所规定的慈善和/或教育目的而组织的非营利性公司。本公司的具体目的是为与人工智能相关的技术研究、开发和分发提供资金。产生的技术将惠及公众,公司将在适用时寻求将技术开源以利于公众。公司不是为了任何个人的私人利益而组织的...

第五条:本公司的财产被不可撤销地专用于本文第三条中的目的,本公司的净收入或资产的任何部分都不得用于任何董事、官员或成员的利益,也不得用于任何私人的利益。在本公司解散或清算时,其在支付或为支付本公司所有债务和义务后剩余的资产应分配给一家专门为慈善、教育和/或宗教目的而组织和运营的非营利基金、基金会或公司,且已根据《内部收入法典》第501(c)(3)条或任何未来联邦税法的相应条款确立其免税地位,或者应分配给联邦政府、州政府或地方政府,用于公共目的。

2015年12月11日,OpenAI宣告成立。公告中,马斯克和奥特曼被任命为联合主席,布洛克曼被任命为首席技术官,公告强调了OpenAI旨在“惠及人类”,研究将“免于财务义务”:

OpenAI是一个非营利的人工智能研究公司。我们的目标是以最有可能惠及全人类的方式推进数字智能的发展,不受产生财务回报的需求限制。由于我们的研究免于财务义务,我们可以更好地专注于对人类的积极影响。

C. 马斯克在OpenAI起步中的关键作用

在宣告成立日 ,马斯克在一封电子邮件中写道:“我们最重要的考虑是招募最优秀的人才。他承诺帮助招聘工作将是他“绝对的24/7头等大事。”他承认:“我们在人手和资源上被你们所熟知的组织超越,差距之大难以理喻,但我们有正义在我们这边,这意义重大。我喜欢这样的赔率。” 马斯克利用了他的人脉、地位和影响力。OpenAI是一个由马斯克赞助的倡议,以及马斯克先生担任联合主席的事实,对招聘工作至关重要,特别是面对谷歌/DeepMind的反招聘行动。如果没有马斯克的参与和大力支持及资源——他出自对创始协议的考虑——OpenAI很可能永远无法起步。

最重要的早期招聘之一是首席科学家。奥特曼、布洛克曼和马斯克都想要谷歌的研究科学家苏兹克沃加入。他一度犹豫,但最终在OpenAI宣告成立的当天,马斯克的电话说服了苏兹克沃加入,担任OpenAI的首席科学家。

在接下来的几个月里,马斯克积极为OpenAI招募人才。谷歌/DeepMind对OpenAI的招聘对象提出了越来越丰厚的反击报价,试图扼杀这个新兴企业。2月下旬,马斯克给布洛克曼和奥特曼发了一封电子邮件,重申说:“我们需要做一切必要的事情来吸引顶尖人才。让我们提高标准。如果在某些时候,我们需要重新考虑现有人员的薪酬,那也没关系。要么我们招到世界上最好的人才,要么我们就会被Deepmind打败。不惜一切代价吸引顶级人才对我来说都可以。Deepmind给我造成了极大的精神压力。如果他们赢了,他们的“一个思想统治世界”的哲学将会带来非常糟糕的消息。鉴于那里的人才水平,他们显然正在取得重大进展,这也是理所当然的。”

马斯克不仅在代表OpenAI招聘方面发挥着他的人脉和影响力。当他告诉布洛克曼和奥特曼“更高”的报酬和“获得最佳人才的方法”时,他提供的资金正是这些更高的报酬。仅在2016年,马斯克就向OpenAI捐赠了超过1500万美元,这比任何其他捐助者都要多。他提供的资金使OpenAI能够组建一个顶尖的团队。2017年,马斯克再次捐赠了OpenAI近2000万美元,同样比任何其他捐助者都要多。总的来说,马斯克在2016年9月到2020年之前向OpenAI捐赠了超过4400万美元。

通过Musk Industries LLC,马斯克为OpenAI在旧金山的先驱大厦租赁了开张的办公空间,并支付了每月的租金。马斯克定期参观OpenAI,并出席了重要的公司里程碑,例如,2016年(黄仁勋亲自将)首个DGX-1 AI超级计算机捐赠给OpenAI。马斯克了解OpenAI的进展,并提供他的反馈和建议。

英伟达CEO黄仁勋,亲自送上门DGX-1 

D. 奥尔特曼和布洛克曼据信反复确认创始协议

2017年,布洛克曼和其他人建议将OpenAI从非盈利组织转变为盈利企业。在几周的通信中,马斯克告诉布洛克曼、苏兹克沃和奥特曼:“你们或者去做一些自己的事情,或者在非盈利组织OpenAI继续干下去。如果你们没有做出确定的承诺,我不会再资助OpenAI,要么我只是一个傻瓜,不过是在提供免费资金给一个初创公司。讨论结束。”

在回信中奥特曼告诉马斯克,“我一直对非盈利组织结构充满热情!”最终,布洛克曼和苏兹克沃表示,他们也决定坚持非嬴利的架构,并承诺在未来一年内致力于筹集资金以支持非盈利组织。

2018年2月21日,马斯克辞去OpenAI联合主席一职。但是,马斯克继续根据创始协议为OpenAI做出贡献。例如,2018年马斯克捐赠了大约350万美元给OpenAI。他继续从布洛克曼、苏兹克沃和奥特曼那里获得OpenAI的最新进展的通报。

在2018年4月,奥特曼向马斯克发送了一份OpenAI章程草案,并征求了他的反馈。该草案描述了OpenAI的使命,即确保AGI“惠及全人类”。它宣布:“我们承诺使用我们对AGI部署所获得的任何影响力,以确保其被用于所有人的利益,并避免使AI或AGI的使用对人类造成伤害或不当权力集中。我们的首要信托责任是对人类。我们预计需要调动大量资源来完成我们的使命,但将始终谨慎行动,以尽量减少利益冲突可能妨碍更广泛的利益……”。

2019年3月11日,OpenAI宣布将创建一个盈利子公司:OpenAI LP,潜在投资者在摘要条款表的顶部被展示一个“重要警告”,即营利实体“存在是为了推进OpenAI Inc.[非营利组织]的使命,确保安全的AGI得到开发,并惠及全人类。普通合伙人对这一使命和在OpenAI Inc.章程中提出的原则的责任,优先于任何产生利润的义务。”因此,明确建议投资者“将对OpenAI LP的任何投资视为一种捐赠是明智的。”

随后,马斯克联系了奥特曼,要求他“明确我在OpenAI的盈利性子公司中没有任何财务利益。”但是,马斯克继续支持OpenAI,2019年捐赠了348万美元。

2020年9月22日,OpenAI宣布将其某些前AGI技术独家授权给微软。与创始协议一致,OpenAI的网站声明,它所描述的AGI(一种在大多数具有经济价值的工作中超越人类表现的高度自主系统)“不包括在与微软的知识产权许可和其他商业条款中,这些只适用于预AGI技术。”然而,OpenAI的董事会“决定我们何时达到AGI。”

E.OpenAI的变化公司结构

在宣布OpenAI, L.P.后的几年里,OpenAI的公司结构变得越来越复杂。

  • OpenAI, L.L.C.于2020年9月17日在特拉华州成立。OpenAI, L.L.C.的唯一成员是OpenAI OpCo, LLC。

  • OpenAI OpCo, LLC于2018年9月19日在特拉华州成立,其唯一成员是OpenAI Global, LLC。

  • OpenAI Global, LLC于2022年12月28日在特拉华州成立。据了解,像OpenAI, L.P.一样,OpenAI Global, LLC是一个有上限的盈利实体。OpenAI Global, LLC有两个成员:微软公司和OAI Corporation, LLC。

  • OAI Corporation, LLC是在特拉华州成立的有限责任公司。OAI Corporation, LLC的唯一成员是OpenAI Holdings, LLC。

  • OpenAI Holdings, LLC于2023年3月17日在特拉华州成立,有多个成员,包括OpenAI, Inc.、Aestas, LLC和各种个人成员。

据了解,OpenAI, Inc.通过其普通合伙人OpenAI GP, L.L.C.管理OpenAI, L.P.和OpenAI Global, LLC,后者于2018年9月19日在特拉华州作为有限责任公司注册。OpenAI GP, L.L.C.完全由OpenAI, Inc.(非盈利组织)拥有,并由非盈利组织的董事会控制。根据OpenAI的章程,董事会对股东没有信托责任;相反,其唯一的信托责任是对人类。

据了解,至少OpenAI, L.P.和OpenAI GP LLC最初是为了促进和资助OpenAI, Inc.在创始协议中规定的非盈利使命而设立的。

F.OpenAI的技术发展——从AI到AGI

OpenAI的初期工作在很大程度上遵循了DeepMind的脚步。OpenAI使用强化学习进入游戏领域。然而,OpenAI参与的不是下棋,而是在《Dota 2》中竞争,这是一个比国际象棋有更多变化因素的策略视频游戏。OpenAI的团队迅速构建了一个新模型,击败了当时的世界冠军团队,证明了“自我对弈的强化学习能在困难的任务上达到超人的表现。”

与此同时,在谷歌,一种名为“Transformer”的算法被创造出来,解决了深度学习在理解长文本序列时遇到的许多问题。这种算法在“大型语言模型”中应用的例子,是用来将文本从一种语言翻译成另一种语言,它在源语言中形成单词之间的连接,并将这些连接映射到目标语言中。

OpenAI的研究人员继续研究这个领域,并很快产生了惊人的结果:通过使用Transformer架构的第一部分,可以使用深度神经网络在大型语料库上预先训练一个生成新文本的模型。2018年1月,OpenAI发布了这个生成预训练Transformer(GPT)的源代码和训练模型,以及描述模型及其功能的详细论文。

2019年,OpenAI发布了第二代模型GPT-2。该版本的发布同样伴随着详细的论文,其中指出,与以前的模型不同,这些模型不需要在特定任务上进行训练。“当一个大语言模型在足够大且多样的数据集上训练时,它可以在许多领域和数据集上执行得很好。”这些模型正在证明自己与先前的人工智能系统大不相同。与训练系统来执行特定的任务不同的是,人们可以简单地用自然语言“提问”它们执行新任务。

根据创始协议,OpenAI公开发布了GPT-2的完整版本。值得注意的是,它这样做到了,即使“人类发现GPT-2的输出令人信服”、“GPT-2可以微调滥用”、“检测(GPT生成的文本)具有挑战性”。当时OpenAI表示,发布完整的开源版本,希望它“将对未来更强大模型的开发者有所帮助”。OpenAI科学家以及独立的社会和技术科学家共同撰写了详细论文,并解释了公开发布模型的许多优点,而不是将它们封闭起来。

事实证明,OpenAI的公开发布对开发更强大模型的开发人员很有用。有了OpenAI发布的模型,整个社区都在努力增强和扩展它们。这些社区分布在开源、基层和商业实体之间。

2020年,OpenAI发布了它的第三个模型GPT-3,它使用“1750亿个参数,比任何先前的稀疏语言模型多10倍”。OpenAI再次公开了这个模型的开发,发表了一篇研究论文,介绍它的完整实施,供他人构建。

在2022年,谷歌的研究人员利用这些成果,并展示了一种名为“思维链提示”的小改动,可以使“大型语言模型执行复杂的推理”。东京大学和谷歌的研究人员迅速扩展了谷歌的成果,并展示了OpenAI的GPT-3能够以类似人类的逐步方式推理出一个全新问题的解决方案,“只需在每个答案前添加‘让我们一步一步地思考’”。

通往AGI的路径已然可见,其时间线已经大为压缩。

2023年3月14日,OpenAI发布了其模型的新一代,GPT-4。这一代不仅能够进行推理,而且在推理方面比一般人更出色。GPT-4在统一律师资格考试中得分位于第90百分位。在GRE语言评估中得分位于第99百分位。它甚至在高级侍酒师考试中得分为77%。根据OpenAI自己的客观衡量标准,GPT-4已经能够在广泛的具有经济价值的任务上表现出超越人类的智能。

这一进展没有被研究界忽视。在一篇题为“AGI的火花:GPT-4早期实验”的详细分析中,微软研究人员指出“GPT-4可以在数学、编码、视觉、医学、法律、心理学等多个领域解决新颖和困难的任务,而不需要任何特殊提示。此外,在所有这些任务中,GPT-4的表现与人类水平极为接近,并且通常远远超过之前的模型(如基于GPT-3.5的ChatGPT)。”

微软自己的科学家们也承认GPT-4“达到了一定形式的通用智能”,并且“考虑到GPT-4能力的广度和深度,我们认为它可以合理地被视为AGI的一个早期(尽管仍不完整)版本。”

G. 2023年违反创始协议

在达到AGI的阈值后,根据创始协议,他们应该为人类的利益而不是为任何营利公司或个人利润而开发它,但他们彻底偏离,违反了创始协议。GPT-4是一个完全封闭的模型。GPT-4的内部设计仍然是个秘密,没有发布任何代码。OpenAI没有发表任何论文来描述其内部设计的任何方面;它只是发布了新闻稿,吹嘘其性能。GPT-4的内部细节只为OpenAI所知,并且据信微软也知道。因此,GPT-4与“开放AI”正相反。而它之所以封闭,是出于商业专有的原因:微软将通过向公众出售GPT-4服务赚取巨额利润,如果OpenAI按要求将该技术免费提供给公众,那这是不可能的。与创始协议相反,被告选择将GPT-4用于最大化世界上最大公司的利润,而不是为人类的利益。此外,OpenAI的整个开发现在都蒙上了秘密的面纱,公众只能通过谣言和支离破碎的信息来了解下一步可能发布的内容。

研究人员指出,基于GPT架构的AI的剩余局限性之一,是它们每次只能生成输出的一部分,不能“回退”。这些问题之前在人工智能研究中已经见过,并且在其他应用中已经基本解决。在找路径和迷宫中,AI必须能够找到正确的路径,尽管在道路上存在死胡同。执行这一行为的标准算法被称为“A*”。

路透社报道,OpenAI正在开发一个名为Q的秘密算法。尽管Q的具体情况尚不清楚,但路透社称,几名OpenAI员工写了一封信,警告Q的潜在力量。似乎Q现在或将来可能成为OpenAI开发的AGI的一个更清晰、更引人注目的例子。作为一种AGI,它明确超出了OpenAI与微软许可协议的范围,并且必须为广大公众的利益而开放。

就与微软的许可协议而言,OpenAI公司的董事会决定OpenAI是否达到了AGI,而在下面更详细描述的一系列令人震惊的进展中,OpenAI公司董事会的大多数成员被迫于2023年11月22日辞职,并且据信他们的替代者是由奥特曼和微软精心挑选的。

2023年11月17日,OpenAI公司的董事会解雇了奥特曼。OpenAI在博客文章中宣布,奥特曼已被开除,他的“离职是董事会经过审慎审议后作出的决定,认为他与董事会的沟通不够坦诚,阻碍了董事会履行职责的能力。董事会不再相信他能继续领导OpenAI。”

布洛克曼也被免除了董事职位,但被告知他将继续担任OpenAI的职位。

当时,董事会由托纳(Helen Toner)、丹杰罗(Adam D'Angelo)、麦考利(Tasha McCauley)、苏兹克沃博士、布洛克曼和奥特曼组成。除了担任董事会成员外,托纳女士还是人工智能治理中心(GovAI)的研究员和顾问,以及乔治敦大学安全与新兴技术中心的战略主任。麦考利女士是兰德公司的高级管理科学家,兰德公司是一家专门从事公共政策决策的非营利机构。她也是GovAI的顾问。丹杰罗先生是是一位科技公司CEO和企业家,是奥特曼复职后唯一留任的董事会成员。

在OpenAI的董事会中包含多位在AI政策领域有深厚经验的学者和公共政策专家,其中大多数人在公司中没有财务利益,这一选择是经过深思熟虑的。这种财务上没有利益冲突、并且在公共服务领域有着良好记录的董事会成员构成,确保了董事会会将非营利组织的主要受益者——人类——置于财务成功之前。这一保障措施是为了推进OpenAI的非营利使命和创始协议而设立的:安全地创造AGI,使之惠及人类,而非盈利公司的金钱利益。

据信,奥特曼被解雇的部分原因,是由于OpenAI在实现AGI方面取得了突破。事实上,新闻报道显示,OpenAI董事会成员和高管之间就安全问题以及OpenAI新一代Q*可能带来的威胁存在分歧。

董事会宣布奥特曼被解职后,消息传播得很快。布洛克曼宣布,他也将与奥特曼离开OpenAI。

当微软CEO纳德拉听说奥特曼被解雇的消息时,据说他怒不可遏。作为OpenAI营利部门49%的股东,纳德拉先生认为在解雇奥特曼之前应该征询微软的意见。然而,在这段时间里,除了奥特曼之外,OpenAI的董事会与微软没有任何联系,也不对营利部门的投资者承担任何信托义务。而实际上,据信奥特曼是微软和OpenAI公司之间的主要联络人。

纳德拉邀请奥特曼和布洛克曼领导微软新的AI研究实验室,这个实验室不受OpenAI的人道主义使命的限制。纳德拉明确表示,微软的新实验室欢迎离开OpenAI的员工,他们的薪资保持不变。

微软相信,凭借在OpenAI营利部门的高额所有权,如果该公司不复存在,它可以完全隔离出OpenAI公司的研究。事实上,在奥特曼被解雇后不久的一次采访中,纳德拉先生表示:

[我们]对自己的能力充满信心。我们拥有所有知识产权和所有能力。如果OpenAI明天消失了,老实说,我不希望我们的任何客户为此担心,因为我们拥有继续创新的所有权利。这不仅仅是为了服务这个产品,我们可以自己去做我们通过合作所做的事情。我们拥有人员,我们拥有计算能力,我们拥有数据,我们拥有一切。

尽管微软声称自己有能力在没有OpenAI的情况下运营,但微软从未放弃让奥特曼重掌OpenAI公司CEO的计划。在奥特曼被解雇后的几天里,OpenAI的董事会面临着来自律师和主要股东(包括微软)日益增大的压力,要求恢复奥特曼的职位。

在恢复奥特曼职位的努力中,托纳成为特别目标。OpenAI的一位律师告诉托纳,如果由于解雇奥特曼而导致OpenAI失败,她和董事会可能会面临投资者对违反信托责任的索赔。

但是,OpenAI的董事会从来没有对投资者负有信托责任。事实上,OpenAI的所有投资者都被告知,公司的使命的优先级高于对投资者的责任,OpenAI的网站明确表示,它只负有对人类的信托责任。

托纳将这位律师的行为描述为一种恐吓策略,她认为继续解雇奥特曼事实上是牺牲利润来促进公司使命中人类安全优先的理念。但是,这一切都没有劝阻股东和奥特曼推动他的复职。

此外,微软对OpenAI公司及其董事会具有相当大的胁迫能力。在奥特曼被解雇期间,纳德拉如此描述了微软与OpenAI的关系:

我们就在那里。我们在他们之下,之上,周围。我们进行内核优化,建立工具,建立基础设施。这就是为什么我认为许多行业分析师都在说,“哦,这真的是微软和OpenAI之间的联合项目。” 实际情况正如我所说,在所有这些方面我们都是非常自给自足的。

此外,在解雇时,微软只支付了其向OpenAI作出的100亿美元投资承诺的一小部分,这给了微软对这家“独立”非营利董事会的严重影响力。另外,如果微软扣留OpenAI所依赖的云计算系统,该公司将陷入瘫痪。

奥特曼和微软对董事会的压力一直持续到11月21日,直至奥特曼复职CEO, 布洛克曼重新担任总裁。奥特曼回归的条件之一是托纳、麦考利和苏兹克沃博士从董事会辞职。

布洛克曼恢复OpenAI总裁职位 

据信,在回归后,奥特曼亲自选择了一个新的董事会,这个董事会没有什么类似的技术专长,也没有充分的人工智能治理背景而这正是之前董事会有意设计的。丹杰罗是一位科技公司CEO和企业家,是奥特曼回归后唯一留任的前任董事会成员。新董事会的成员在逐利企业或政治领域经验丰富,而不是在人工智能伦理和治理方面。据报道,他们也是“奥特曼的忠实粉丝”。两名新董事会成员是泰勒(Bret Taylor)和萨默斯 (Larry Summers)。泰勒对硅谷并不陌生,并且一直深度参与湾区各种以营利为导向的创业公司。2024年2月14日,泰勒和前谷歌高管Clay Bavor创办了一家为企业构建AI聊天机器人的创业公司。萨默斯博士是一位经济学家,2023年11月之前没有在人工智能创业领域的工作经验。微软还从董事会获得了一个观察员席位,以便密切关注它看似非营利的金矿

奥特曼的复职和董事会的重组导致OpenAI的企业治理结构崩溃,该结构最初设计为非营利部门、营利部门、董事会和CEO之间的制衡架构,以确保执行非营利使命。OpenAI的原先精心设计的非营利结构,已被一家纯粹以利润为导向的CEO和在AGI和AI公共政策方面缺乏专业技术知识的董事会所取代。现在,董事会有一个为微软保留的观察员席。OpenAI的非营利使命是开发广泛惠及人类的AGI,从而使其不落入过多权力集中的大型盈利公司的掌中。通过这种重组,OpenAI放弃了它的使命

OpenAI董事会在AI领域的技术专长、中立性以及对OpenAI非营利使命的承诺,对于OpenAI的使命尤为关键,因为正是董事会决定OpenAI是否已达成AGI,而这正是与微软许可协议的核心。这意味着董事会的任务是确定OpenAI最强大和最先进的技术是否真的被排除在微软的独家许可范围之外。

鉴于微软在保持对公众关闭大门方面拥有巨大的财务利益,OpenAI新的董事会已经被俘获、存在冲突且顺从,将有充分的理由一直延迟做出OpenAI已达成AGI的判定。相反,OpenAI实现AGI的时刻,就像《安妮》中的“明天”,永远是遥不可及的一天,确保微软将被授权使用OpenAI的最新技术,而公众将被排除在外,这与创始协议的初衷完全相反。

微软CEO纳德拉控制了OpenAI董事会政变事件的局面 

OpenAI的行为可能对硅谷产生深远影响,如果被允许成立,可能代表技术初创企业的一个范式转变。重要的是要反思这里发生了什么:一个非营利初创企业已经收集了数千万美元的捐款,明确目的是为了公众利益开发AGI技术,而就在实现公司创建目的的重要里程碑之前不久,公司已经变成了世界上最大的公司的封闭的盈利合作伙伴,从而使被告个人获得了巨大的财富。如果这种商业模式是有效的,它将彻底重新定义在加利福尼亚及其他地方实践的风险资本主义方式与其从一开始就作为一个营利实体,“聪明的”投资者会建立非营利组织,使用税前捐款来资助研究和开发,然后一旦他们的技术被开发和验证,就会将产生的知识产权资产转移到一个新的营利企业中,以此来造富自己和他们追求利润最大化的公司合作伙伴。这并不应该是加利福尼亚或这个国家其他地方的法律应有的运作方式,这个法院也不应该是第一个持相反观点的法院。

进一步理解这为什么重要。如果OpenAI的新商业模式是有效的,那么投资者通过向非营利组织“投资”的每一美元,大约能从州和联邦政府那里以减少所得税的形式回收大约50美分,因此他们每投资1美元的净成本只有50美分。然而,有了OpenAI的新商业模式,他们获得的“盈利”上升空间与那些以传统方式投资于营利公司并因此没有立即获得税收减免的投资者相同,这种上升空间由政府乃至最终由公众资助。从投资角度来看,与采用新OpenAI商业模式的实体竞争,就像是打篮球比赛,而对方球队的计分是你的两倍。如果法院在此确认OpenAI的行为,任何希望在硅谷保持竞争力的初创公司实质上都将被要求遵循这一OpenAI策略,这将成为初创公司的标准操作程序,从而损害合法非营利组织、政府的税收收入,最终损害加利福尼亚和其他地区的人民。值得注意的是,OpenAI的营利分支最近的估值接近800亿美元。

H. 2023年11月至今:奥特曼的OpenAI

公众仍然对董事会的“审议性审查过程”究竟揭示了什么而导致奥特曼最初被解雇一事一无所知。然而,有一件事对马斯克和广大公众来说是明确的:OpenAI已经放弃了其“不可撤销”的非营利使命,转而追求利润。许多意见领袖和知识界已经公开评论了OpenAI变成“封闭的、营利的AI”这一讽刺和悲剧

公众仍然对董事会的“审议性审查过程”究竟揭示了什么而导致奥特曼最初被解雇一事一无所知。然而,对于马斯克和广大公众来说,有一点是明确的:OpenAI在追求利润的过程中放弃了其“不可撤销”的非营利使命。许多领导人和知识分子已经公开评论了OpenAI变成“封闭的、盈利的AI”这一讽刺和悲剧。

例如,2023年11月29日,麻省理工学院的经济学家在《洛杉矶时报》上发表了一篇评论,对OpenAI新的以利润为导向的指令表示关注。用他们的话说,“颠覆和无控制的增长已成为科技行业的宗教,而奥特曼一直是其最忠诚的高级祭司之一。”经济学家强调,新董事会更有可能允许奥特曼尽快扩大OpenAI的规模,不管社会成本有多严重。

公民权利组织Public Citizen的主席今年早些时候给加利福尼亚州检察长Rob Bonta写了一封公开信,表达了对OpenAI的营利子公司是否在对非营利组织施加不当控制,或者在奥特曼和微软的领导下,非营利组织的目的是否已转向营利的担忧。信中建议,如果非营利组织放弃了其原始使命,那么它应该被解散,其收益应该用于其他慈善企业。

《连线》杂志2024年1月的一项调查发现,OpenAI最近还关闭了公众获取以前可用的“关键文件”的通道。按照OpenAI最初的透明度承诺,OpenAI的IRS(美国国税局——编者注)文件自成立以来就表明,任何公众成员都可以查看其治理文件、财务报表和利益冲突规则的副本。然而,当《连线》请求这些文件时,OpenAI表示其已更改政策。因此,尽管OpenAI长期以来一直吹嘘其对透明度的承诺,但公众无法获得有关2023年11月事件的信息。

获取OpenAI文件可以让公众了解它是否已经改变了治理结构,以安抚微软和其他股东。至少,为了配合微软在董事会上的席位,肯定进行了一些更改。而现在奥特曼据报道正在与中东投资者进行讨论,以筹集高达7万亿美元,努力开发一个全球人工智能芯片制造工厂网络。如果微软的100亿美元就足以让其获得董事会席位,人们只能想象这些新的潜在投资可能会给投资者在OpenAI上赋予多大的影响力。当其中一个潜在捐赠者是阿拉伯联合酋长国的国家安全顾问,而美国官员由于阿拉伯联合酋长国与中国的关系而感到担忧时,这尤其令人不安。此外,奥特曼先生曾被引述讨论使阿拉伯联合酋长国成为一个“监管沙盒”,在那里测试AI技术的可能性。

此外,获取OpenAI的利益冲突政策,对于揭示董事会控制奥特曼使用OpenAI推进其自身经济利益的能力至关重要,到目前为止,这似乎还未受到检查。例如,在2019年奥特曼担任CEO时,OpenAI签署了一份意向书,购买了一家奥特曼大量投资的初创公司价值5100万美元的芯片。

尽管OpenAI曾是基于与公众开放沟通的安全、负责任的AGI开发的先锋,但它现在已经关闭了大门,将其营利子公司的最大投资者带到了一个只对人类负有信托责任的董事会,并继续秘密地朝着以利润为中心的未来前进,这对人类可能有灾难性的影响。

马斯克与奥特曼和布洛克曼一起创立并资助了OpenAI,其条件是依赖创始协议,以确保AGI将惠及人类,而非营利公司。随着2023年的事件发展,马斯克对OpenAI的贡献,被扭曲为惠及被告和世界上最大的公司。这是对创始协议的彻底背叛,颠倒了协议的本意,变质了OpenAI的使命。想象一下,向一个宣称使命是保护亚马逊雨林的非营利组织捐款,但随后这个非营利组织创建了一个营利的亚马逊伐木公司,使用捐款的成果来砍伐雨林。

这就是OpenAI的故事。

参考资料:

起诉书

Open AI Inc.注册证书

奥特曼致马斯克邮件(2015年6月24日,23:06 )

OpenAI官方介绍

来源:

https://www.courthousenews.com/wp-content/uploads/2024/02/musk-v-altman-openai-complaint-sf.pdf

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部