2024嘉兴省考准考证打印时间
2023-12-06
更新时间:2023-12-06 20:05:44作者:橙橘网
2023 年 11 月底,当 董事会风波闹得沸沸扬扬的时候,普通围观群众似乎理所应当地以为,围绕生成式人工智能构筑的行业是一个充满活力和竞争的生态系统。这也情有可原。
但事实并非如此,也从未如此。搞清楚背后的原因,是理解人工智能及其构成的威胁的基础。简单地说,在当前企业追求构建规模越来越大的人工智能系统的趋势下,没有大型科技公司就没有人工智能。
除了极少数例外情况,每一家初创公司、新进入者,甚至人工智能研究实验室都依赖于这些大公司。所有这些小玩家都依靠、和的计算基础设施来训练他们的系统,并依靠这些公司庞大的消费市场来部署和销售他们的人工智能产品。
(来源:AI 生成)
事实上,许多初创公司只是拿到了这些科技巨头或其合作的初创公司创建和销售的人工智能模型的商业授权,并进行品牌重塑。这是因为大型科技公司在过去十年中积累了显著的优势。
由于平台主导地位和商业模式的自我强化特性,他们拥有并控制开发和部署大规模人工智能所需的一切。他们还塑造了人工智能研发领域的激励结构,定义了技术的现在和未来。
在最近 的故事中,在其中扮演的角色,有力地证明了我们在过去五年中一直在分析的事情。那就是:有钱人才能制定规则。
现在,他们正在进行一场激烈的竞争,在人工智能系统还没准备好之前就上线,试图保持他们的主导地位。
权力集中不仅仅是市场的问题。依靠少数不能被追责的企业玩家来获得核心基础设施,是民主、文化以及个人和集体机构的问题。
如果没有重大干预,人工智能市场最终只会奖励和巩固那些驱动商业互联网的侵入式商业模式并从中获利的公司,而这些公司往往是以牺牲公众利益为代价的。
剑桥分析公司()的丑闻暴露出了这一肮脏的现实,但它也只是冰山一角。这种集中的情况还会造成单点故障,从而引发真正的安全威胁。
美国证券交易委员会主席加里·根斯勒()警告说,在人工智能生态系统的基础上有少量的人工智能模型和参与者会对金融秩序构成系统性风险。在金融领域,单点故障的影响可能会扩散得更广。
人工智能取决于并加剧了科技行业权力集中的说法经常遭到驳斥。从 Web3 迅速转向元宇宙再到人工智能的投资者热衷于在一个疯狂的炒作周期推动初创公司的估值上涨,进而转向收益丰厚的 IPO 或收购以实现退出。他们在这个生态系统中获得了巨额回报,即使相关技术的承诺从未实现。
但 联合创始人山姆·奥特曼()和格雷格·布罗克曼()一度被赶下台,随后又重返公司的故事,不仅使的权力和影响力成为焦点,也证明了我们的观点,即这些商业安排让大型科技公司对人工智能的发展轨迹有着深刻的控制。
故事的情节很简单:在被董事会的突发决定打得措手不及后,迅速采取了行动保护其投资和盈利路线图。该公司迅速发挥了自己的影响力,团结人们一起支持,并承诺“吸纳”那些想离职的 员工。
如今在 的董事会中拿到了一个席位,尽管没有投票权。但大型科技公司在人工智能领域的真正影响力是其计算能力、数据和广阔的市场触及度。
为了沿袭“更大即更好”的人工智能开发方法, 曾与达成协议。它将其 GPT-4 系统和所有其他 模型独家授权给,以换取对计算基础设施的访问。
对于希望构建基础模型的公司来说,除了与、或合作,几乎别无选择。而那些处于人工智能中心的人也很清楚这一点,正如暗中寻找沙特和阿联酋对一家硬件企业的投资所表明的那样,他希望这家企业能与竞争。
几乎垄断了用于人工智能训练的最先进芯片,是人工智能供应链上的另一个关键瓶颈。然而,美国监管机构要求沙特阿拉伯撤销对支持的 公司的投资,这加剧了 在更中心化的芯片制造市场中面临的困难。
几乎没有什么有意义的替代方案,即使对于那些愿意付出额外努力,构建独立于行业的人工智能的人来说也是如此。
正如我们曾描述的那样,“开源人工智能”是一个定义不清的术语,目前可以用于描述 公司的(相对封闭的)LLaMA-2 模型和 公司的(相对开放的)Pythia 系列模型,但这些努力无法逃脱人工智能行业中心化的速度。
首先,许多开源人工智能项目通过计算信用、收入共享或与科技巨头达成的其他协议来运营,同样的结构性依赖问题依然存在。
此外,大型科技公司在获取开源开发或试图从中获利方面有着悠久的历史。开源人工智能可以提供透明度、可重用性和可扩展性,这些都是积极的。但它并没有解决人工智能市场权力集中的问题。
与的关系也证明了一个在人工智能炒作中经常被忽视的事实:除了通过将人工智能服务与云基础设施捆绑在一起来增加大型科技公司的云利润之外,这种技术本身还没有一个明确的商业模式。
当你在谈论一个可能花费数亿美元进行训练和开发的系统时,商业模式是很重要的。
并不是唯一一家这样做的公司,也经营着一个人工智能模型市场,上面它自己的所有产品和少数第三方产品都使用了云服务。
最近与人工智能初创公司 达成了一项高达 40 亿美元的投资协议,Anthropotic 还承诺使用研发的芯片 Trainium,该芯片是专为构建大规模人工智能而优化的产物。
大型科技公司在保护其对市场的控制权方面变得越来越坚定。毫无疑问,尽管 是这次大家关注的焦点,但现在我们都已经看到了,当一家大公司决定插手时,一个依赖于它的小公司会是什么样子,其他玩家也会关注并加入进来。
监管可能会有所帮助,但政府政策往往会巩固而不是削弱这些公司的权力,因为他们有更多的资金和政治影响力。
以最近在英国的举措为例。上周,宣布投资 25 亿英镑在英国建设云基础设施。这一举措受到了英国首相的赞扬。他明确表示了自己想在英国建立一个本土人工智能行业的雄心壮志,这将是他的主要政治遗产。
但我们不能孤立地解读这一条消息:这显然是为了应对和弱化英国竞争监管机构对云服务市场的调查,此前一项研究特别指出了一系列市场参与者对反竞争行为的担忧。
从 因《人工智能法案》而威胁退出欧盟(最后并未付诸行动),到 游说免除开源人工智能的基本问责义务,再到在美国和英国的动态,我们看到大型科技公司越来越咄咄逼人,他们试图通过使用相当大的经济和政治权力来巩固自己的主导地位。
随着美国白宫、欧盟和其他地方出台新法规,科技行业的巨头们已经围绕在政策制定者身边,伺机而动。很明显,我们需要行动起来。
现在是时候建立一个有意义和强有力的问责制度了,将公众的利益置于那些不愿履行承诺的公司之上。
我们需要积极的透明度要求,以消除人工智能公司为训练其模型而访问的数据等基本问题的不透明性。
我们还需要建立责任制度,让公司在其人工智能产品公开发布之前,证明其符合隐私、安全和偏见标准的基准(要求)。
为了开始解决集中化问题,我们需要大胆的监管,迫使人工智能堆栈不同层之间的业务分离,不允许大型科技公司利用其在基础设施方面的主导地位来巩固其在人工智能模型和应用市场的地位。
但是,如果政府在制定政策时继续把狭隘的行业利益群体放在首位,我们就寸步难行。在看到 的事件之后,我们现在很清楚这些公司究竟服务于什么了:它们自己的利益(底线)。
作者简介:安巴·卡克(Amba Kak)是 AI Now 研究所的执行董事,莎拉·迈尔斯·韦斯特(Sarah Myers West)是该研究所的常务董事,梅雷迪·思惠特克(Meredith Whittaker)是该研究所的首席顾问。AI Now 研究所是一家总部位于美国纽约的专注于人工智能的政策研究组织。
支持:Ren
运营/排版:何晨龙
04 /
05 /