
OpenAI首席执行官萨姆·奥尔特曼。图片来源:Anna Moneymaker—Getty Images
过去一段时间,OpenAI占据了各大新闻头条。事实上,这家公司的消息铺天盖地,甚至让人一时难以理清头绪。更难判断的是,事后回看,究竟哪一项进展才会被证明最具影响力。稍后我会逐一梳理OpenAI的动态。
不过在此之前,我想先重点提三条关于Anthropic的新闻,因为从长期来看,它们的重要性,可能超过OpenAI的所有琐事。
Anthropic公布了一项名为“Glasswing计划”的合作项目,汇集多家大型科技公司和网络安全机构,目标是在黑客利用AI对全球关键软件造成严重破坏之前,提前加固这些系统的安全。联盟伙伴已经获准使用Anthropic尚未发布的Mythos模型的一个网络安全专用预览版,希望借助该模型识别零日攻击和其他潜在漏洞,并在Mythos正式版以及OpenAI和谷歌具备超强网络攻防能力的同类AI模型上线之前,修复这些漏洞。
“Glasswing计划”进一步证明,AI实验室、网络安全公司以及政府官员日益担忧一种情况:随着近期AI模型编程能力的提升,我们正步入一个网络安全威胁空前严峻、甚至可能带来灾难性后果的时代。
Anthropic还宣布,将不再允许用户通过每月订阅Claude来驱动第三方智能体工具,例如近期爆火的OpenClaw及其衍生工具。今后,用户若想使用Claude驱动此类工具,必须改为订阅Anthropic的API,并按词元用量付费,而不再适用“包月不限量”的模式。近几周,尤其是在OpenClaw这类智能体工具爆火之后,Anthropic已显露出算力不足的问题,难以应对迅速飙升的用户需求(该公司还在高峰时段实施了严格的使用限制,引发不少用户不满)。为缓解算力压力,Anthropic宣布扩大与谷歌和博通(Broadcom)的合作,以获取运行谷歌TPU芯片的数据中心资源,这些资源预计将在2027年前陆续上线。不过在此之前,这一调整可能会对AI智能体的使用方式产生重大影响:一方面可能放缓其普及速度,另一方面也可能促使更多用户转向将开源模型作为智能体的“核心引擎”。
Anthropic还表示,公司当前的年化收入“运行率”已达到300亿美元,这一数字意味着仅在3月,其收入就飙升了58%。该水平也高于OpenAI在今年2月披露的250亿美元年化收入运行率(不过两家公司计算口径并不完全一致,因此可比性有限)。但这仍清晰表明,Anthropic正处于高速增长阶段,而在OpenAI近期一系列动态的背景下,这一点尤为关键。
言归正传,接下来我们来看OpenAI方面的最新情况。
OpenAI偏好“建设性”的媒体报道,于是决定“自制”内容
在OpenAI的一系列新闻中,或许最不重要、却引发媒体广泛讨论的一件事,是公司决定收购成立仅一年的视频播客平台科技商业节目网络(TBPN)。据《金融时报》援引消息人士称,交易金额为“数亿美元的低位区间”。OpenAI在宣布这笔交易时表示,“传统的传播方式显然已不再适用于我们”,公司需要“帮助打造一个空间,让围绕AI变革的讨论更加真实、更具建设性,并将开发者和使用者置于核心地位”。
这里的“建设性”一词意味深长。尽管OpenAI坚称TBPN将保持编辑独立性,但外界对此多持怀疑态度。其中一个原因是,该视频内容业务将向公司政策传播负责人克里斯·勒哈恩汇报——他曾是一位作风强硬的政治操盘手。这一举动看起来像是科技公司试图通过“直达受众”(即利用社交媒体和自制内容,绕过传统新闻媒体)掌控舆论叙事的最新、甚至最极端的案例。传统媒体往往更具批判性,也更可能提出企业高管不愿面对的问题。
奥尔特曼的诚信遭到质疑
如果此前还不够清楚OpenAI为何希望掌控传播渠道、为何反感传统媒体,那么《纽约客》最新刊发的对OpenAI首席执行官萨姆·奥尔特曼的长篇人物报道则点明了缘由。这篇文章由罗南·法罗和安德鲁·马兰茨历时一年半调查完成,标题赫然写道:“萨姆·奥尔特曼或许掌控着我们的未来——但他值得信任吗?”通读全文,很难得出肯定的答案。
尽管文章中披露了一些新的细节,例如,记者获取了现任Anthropic首席执行官达里奥·阿莫迪的数百页笔记,记录了他在OpenAI任高级研究员期间与奥尔特曼的互动,但其中不少事实此前已在其他报道中出现。然而,将这些信息集中呈现,依然产生了巨大的冲击力。法罗和马兰茨笔下的奥尔特曼,更像是游走在反社会人格边缘的高管,为了上位不惜撒谎且毫无愧疚感。这篇文章让人不禁质疑:除了对权力的追逐,奥尔特曼对其他任何事的承诺,到底有几分真诚?他是否真得重视AI安全问题,尤其是他在AI安全方面的表态,是否只是一种策略性姿态,起初是为了争取埃隆·马斯克等人的早期资金支持,后来则是为了吸引并留住顶尖AI研究人才,同时缓和监管压力。
可以肯定的是,潜在的IPO投资者通常不会青睐由“习惯性说谎者”掌舵的公司。他们同样排斥高层频繁变动的企业。而就在上周,OpenAI又宣布了一轮新的高管调整。公司表示,“通用人工智能部署首席执行官”、负责所有商业产品与运营的菲吉·西莫,将因慢性健康问题休数周病假。在她休假期间,此前主要负责AI基础设施建设的格雷格·布罗克曼将接管产品业务。
与此同时,OpenAI还公布了一项更长久的管理层变动。长期担任首席运营官的布拉德·莱特卡普将转任一个新的岗位,负责统筹“特殊项目”,其中包括与私募股权机构合作的一项合资计划,旨在利用AI提升传统非科技行业的效率。近期出任OpenAI首席营收官、曾任Slack首席执行官的丹妮丝·德雷瑟将接手莱特卡普的大部分原有职责;其余业务与运营板块,则由首席战略官杰森·权和首席财务官萨拉·弗莱尔共同分管。
有关支出与IPO计划的分歧浮出水面
与此同时,一则新曝出的消息暗示,弗莱尔的职位或许也不稳固。《The Information》报道称,弗莱尔在私下反对奥尔特曼的IPO时间表,并对公司未来五年高达6,000亿美元的支出承诺表达了担忧。该媒体援引一位与弗莱尔交流过的人士称,她不确定如此规模的投入是否必要,也不确定OpenAI能否以足够快的速度实现收入增长、以支撑这笔开支。
报道还指出,弗莱尔是在OpenAI宣布1,220亿美元融资之前表达了这些担忧。这笔融资于上周公布,使公司投后估值达到8,520亿美元。报道未能确认,在获得这笔新资金后,弗莱尔的立场是否发生了变化。不过,另一位未具名消息人士称,在OpenAI一次讨论重大AI基础设施支出计划的投资者会议上,弗莱尔并未被邀请出席。对此,OpenAI回应称,弗莱尔与奥尔特曼“完全认同:稳定获取算力是公司战略的关键,也是其扩张过程中的重要竞争优势。”
综合OpenAI的这些动向,人们难免会怀疑,这家全球最知名的AI公司是否正面临失控风险。至少,OpenAI能否在今年顺利IPO,已被打上了一个巨大的问号。而如果IPO计划告吹,公司还能在私募市场持续融资多久,同样是个未知数。一旦OpenAI崩盘,甚至只是经历一轮“估值下调”,都可能威胁到整个AI生态系统。当然,像英伟达(Nvidia)这样的关键参与者对此也心知肚明,因此很可能会继续出手支持OpenAI。
在这一系列动荡之中,OpenAI还发布了一份白皮书,呼吁美国针对即将到来的“超级人工智能”时代制定一项全面的产业战略。(更多相关内容可参见我同事沙龙·戈德曼的报道。)不少人认为,这份文件在很大程度上是OpenAI的一种前瞻性布局,以化解美国各地日益高涨、且正逐渐获得两党支持的反AI产业情绪。
AI行业动态
Anthropic扩大与谷歌、博通的合作,以获取数据中心算力。根据协议,Anthropic最早将从2027年起获得约3.5吉瓦的算力,但前提是该AI公司需达成特定的商业里程碑。此外,博通还将在2031年前向谷歌供应定制AI芯片TPU及相关基础设施。更多详情,请参阅《华尔街日报》的报道。
谷歌为Gemini增设心理健康防护机制。谷歌已引入一套系统,用于识别用户在与Gemini交互过程中可能表现出的心理危机信号,并在必要时引导用户联系危机干预热线。公司还宣布将捐赠3,000万美元,用于在全球范围内支持危机干预服务。此外,谷歌还增加了多项安全措施,以遏制自残倾向,并训练Gemini避免强化用户的错误信念。更多内容,请参阅彭博社的报道。
谷歌发布Gemma 4开源权重模型。谷歌推出了新一代开源权重AI模型Gemma 4。据科技媒体《The Register》报道,该系列模型基于Apache 2.0许可发布,旨在通过提升使用灵活性和数据控制能力,吸引企业用户。Gemma 4由谷歌DeepMind开发,共推出四个版本,重点强化编程能力、智能体型AI以及推理表现,同时支持多模态输入,并可在从智能手机到数据中心的多种设备上运行。此次发布正值来自中国的开源权重模型竞争白热化之际,反映出谷歌正竭力提供一个足以抗衡OpenAI和Anthropic系统的企业级可靠替代方案。
微软(Microsoft)推出“中端”AI模型,AI负责人承认存在算力缺口。微软发布了三款中型AI模型,称其在语音转录、语音生成和图像生成方面均达到行业领先水平。不过,微软AI负责人穆斯塔法·苏莱曼在接受《金融时报》采访时表示,公司目前仍缺乏构建前沿级大规模模型所需的算力。苏莱曼指出,公司现阶段将重点放在“中端”模型上,在成本与性能之间寻求平衡,同时加大对基础设施和人才的投入,以追赶谷歌和Anthropic等领先者。
Meta计划开源下一代AI模型。据报道,Meta内部此前一直在讨论,是否将其下一代AI模型——即在新成立的“超级智能实验室”(由前Scale AI首席执行官汪滔领导)开发的首个模型——继续以开源权重形式发布,还是转为通过付费API或订阅模式提供。Axios援引匿名知情人士称,这一争论如今已尘埃落定,公司决定仍采用开源权重模式。这一新模型的发布被寄予厚望:一方面,这是Meta斥资数十亿美元引入汪滔及其团队后的首个成果;另一方面,其上一代模型Llama 4被普遍认为表现不佳,明显落后于OpenAI、Anthropic和谷歌DeepMind的同类产品。
AI研究前沿
AI也有“情绪”?Anthropic最新研究给出部分肯定答案。该AI实验室表示,其研究发现,为其Claude AI模型提供支持的人工神经网络中,确实存在对“情绪概念”(如快乐或恐惧)的内部表征,这些表征会在功能层面影响模型的行为。Anthropic的研究人员强调,这并不意味着AI具备真实情感,而是其神经激活模式中存在某种结构,这些结构会引导模型的响应,在决策、偏好、输出方面与人类情绪存在一定程度的相似性。例如,当模型在不同任务之间进行选择时,往往更倾向于与“正向情绪”表征相关的选项,这表明这些内部表征在行为中具有因果作用。研究认为,理解并在一定程度上引导这些类似“情绪”的内部状态,对提升AI模型的表现至关重要。同时,这一发现也涉及安全层面的考量,因为模型的这些内部表征可能影响模型在多大程度上遵循用户意图。
启发性案例解析
谷歌盛赞其AlphaEvolve在真实企业场景中取得成效。去年,谷歌DeepMind推出了AlphaEvolve,这是一款智能体型编程助手,能够调用多个Gemini模型,先为特定任务生成算法,再通过一系列小规模、可控的实验不断迭代优化。当时,谷歌已利用该系统解决数学问题,并优化自身的算力使用方式。如今,公司公布了其在真实企业场景中的应用成果。
法国全球物流公司FM Logistic利用AlphaEvolve优化其大型仓库内的拣选与打包路径。与依赖固定规则不同,该系统会基于实际运营数据,迭代编写并测试新的路径算法,在满足叉车容量、订单优先级等约束条件的同时,尽可能减少整体行走距离。
最终生成的算法引入了多项关键创新,例如从高密度货物区域开始路径规划,以及灵活放弃低效路线,从而提升整体效率。谷歌表示,这些优化使路径效率提升了10.4%,每年减少超过1.5万公里的行驶距离,在无需增加人手或设备的情况下,提高了订单履约速度和处理能力。这一案例表明,即便在软件开发之外的领域,AI编程智能体同样具备巨大的应用潜力。(财富中文网)
译者:刘进龙
审校:汪皓
