GPT-4.5预览版与Sora全面开放背后:OpenAI的商业野心与安全危机
四月初的OpenAI正陷入冰火两重天的境地。4月4日,OpenAI悄悄发布GPT-4.5预览版,视频理解和长文本处理能力提升3倍,开发者社区一片沸腾;4月9日,官方宣布Sora正式向所有Plus付费用户开放测试,支持生成最长60秒4K高清视频,相关话题在X平台24小时内获得50万次讨论。然而技术产品高调迭代的同时,《纽约客》历时18个月的万字调查报道却如同一枚重磅炸弹,彻底撕开了这家AI巨头光鲜背后的裂痕。
技术升级:GPT-4.5与Sora能力大幅提升
此次发布的GPT-4.5预览版在多模态能力上实现了重大突破。根据开发者实测,其视频理解能力较GPT-4提升3倍,能够精准解析1小时以上的长视频内容,自动提取关键信息、生成逐帧文字描述、识别视频中人物动作和场景变化;长文本处理窗口扩大到128K Token,支持一次性处理近10万字的文档,大幅提升了学术研究、法律分析等场景的工作效率。
Sora开放公众测试更是引爆了内容创作领域。用户现在只需输入文字提示,即可生成最长60秒的4K高清视频,画面流畅度、人物动作自然度较内测版本提升40%。不少创作者已经开始尝试用Sora制作短视频脚本、广告创意素材、电影分镜等内容,AI视频创作的门槛被进一步降低。
不过与技术升级伴随而来的是成本压力。据《华尔街日报》报道,Sora每天运营成本高达100万美元,大规模视频生成任务的算力成本高得惊人,这也是OpenAI急于将其推向付费用户的重要原因。目前Sora仅对20美元/月的Plus用户开放,生成1分钟4K视频需要消耗10个积分,相当于约5美元的使用成本。
安全丑闻:《纽约客》万字调查揭露内部乱象
就在产品高调发布的同时,4月7日《纽约客》发布的深度调查报道却将OpenAI推向了舆论漩涡。报道采访了超过100名知情人士,首次公开了前首席科学家Ilya Sutskever的70页「绝密备忘录」及Anthropic CEO Dario Amodei的200页内部笔记,揭露了OpenAI内部令人震惊的安全乱象。
调查显示,OpenAI曾公开承诺投入20%算力用于「超级对齐」安全研究,实则仅拨出不足2%的淘汰芯片资源,98%的主力算力全被挪去跑商业业务赚钱。CEO Sam Altman曾向董事会谎称GPT-4的高风险功能已通过安全审查,甚至在印度未经任何内容审核便秘密发布ChatGPT,引发了大量虚假信息传播问题。前安全主管Jan Leike离职时愤然感叹:「安全文化早已为产品让路。」
报道还详细披露了2023年的「五天宫斗」细节:Ilya因恐惧Altman绕过安全规则,曾用阅后即焚软件向董事会举报其「不诚实」,然而Altman凭借微软等资本力量迅速翻盘,随后聘请顶级律所进行「无书面报告」的口头调查,精巧避开了法律问责。这场宫斗之后,OpenAI的安全团队核心成员几乎全部离职,安全审查机制名存实亡。
更令人担忧的是,为了填补2026年预期140亿美元的亏损缺口,OpenAI已经接受美国军方2亿美元合同,并与特朗普政府达成5000亿美元的「星门计划」合作,将AI技术大量应用于军事领域,这与公司成立之初「确保AI造福全人类」的非营利使命完全背道而驰。
商业野心:从科技理想主义到资本逐利机器
OpenAI成立之初是一家非营利机构,使命是确保通用人工智能造福全人类。然而在Sam Altman的主导下,公司已经彻底走上了商业化扩张的道路。Altman频繁抛出令人咋舌的估值与规模预测,将OpenAI描述为一家需要数千亿乃至数万亿美元才能实现使命的公司,并以此为杠杆撬动资本市场,目前公司估值已经高达8520亿美元。
这种商业化导向直接导致了安全研究的边缘化。正如我们之前在《AI大模型安全对齐为何重要》一文中分析的,当商业利益成为首要目标,安全研究必然会被牺牲。OpenAI现在的产品发布节奏越来越快,GPT-4.5从研发到发布仅用了8个月时间,很多安全问题尚未得到充分测试便推向市场,带来了巨大的潜在风险。
《纽约客》的调查还揭露了Altman的管理风格问题。报道引用多位前高管的证词,直指其「善权术、涉欺骗、无良知」,为了商业目标可以不择手段。这种企业文化让OpenAI从一家受人尊敬的AI研究机构,逐渐变成了以利润为导向的资本工具。
行业反思:技术发展不能以安全为代价
OpenAI的现状引发了全球AI行业的深刻反思。一边是GPT-4.5、Sora等令人惊叹的技术产品,一边是被漠视的安全研究和伦理底线,这种反差让人们开始担忧AI技术的未来走向。毕竟,当一家掌握全球最先进AI技术的公司将商业利益置于安全之上,所带来的风险将是全人类共同承担的。
此次事件也给国内AI行业敲响了警钟。正如《生成式人工智能服务管理暂行办法》所强调的,AI技术发展必须坚持安全可控原则,技术创新不能突破伦理和法律底线。国内AI企业在追求技术迭代的同时,更应该重视安全体系建设,避免重蹈OpenAI的覆辙。
技术本身是中立的,但研发和使用技术的人必须有底线。OpenAI的案例告诉我们,缺乏有效监管和伦理约束的AI技术,不仅无法造福人类,反而可能带来巨大的风险。如何在技术创新和安全可控之间找到平衡,是整个AI行业需要共同思考的问题。