当ChatGPT风靡全球,其背后的OpenAI及其CEO山姆·奥特曼几乎被奉为引领人类进入通用人工智能时代的先知。然而,光环之下涌动着令人不安的暗流。公众对奥特曼的口述愿景深信不疑,却可能忽略了商业现实与道德宣言之间巨大的撕裂。从早期的非营利理想,到如今万亿帝国的雏形,奥特曼的言行轨迹被广泛解读为一场精妙的“叙事操控”。这远不止是一则技术明星的花边新闻,其本质是对技术治理、话语权力和信息透明的世纪拷问。握有如此强大技术命脉的人,其道德的一致性与商业的透明度,将直接影响AI技术的发展轨迹和全人类的未来福祉。
回溯OpenAI的创立初衷,它曾以“安全的、普益的”非营利机构的面目出现,旨在对抗谷歌等科技巨头对AI技术的垄断。奥特曼是其最激情的布道者,描绘着将AI作为公共品的无私蓝图。然而,剧情随后急转直下。在需要巨额资金进行模型训练、尤其是开发GPT系列时,OpenAI引入了有限的营利架构,并最终与微软结下百亿级别的深度联盟。这一系列转向被支持者视为务实,但在批评者眼中,却是对其最初理想的背弃。更关键的问题在于,奥特曼在每一次关键转折点的表态,都巧妙地模糊了商业野心与公益理想的边界,不断重塑叙事以适应公司不断扩张的需求,这使得外界越来越难以区分哪些是真正的愿景,哪些是服务于资本和技术垄断的辞令。
这种“叙事灵活性”体现在诸多层面。例如,在谈论AI安全时,奥特曼以警告超级AI风险的形象出席国会听证,塑造了负责任领导者的形象;与此同时,OpenAI却在竭力推动更强大、更封闭的模型研发进程,并大力构建围绕其模型的商业生态。这种一边呼吁监管一边狂奔猛冲的姿态,引发了包括公司内部研究者在内的广泛忧虑。人们开始质疑,安全话语是否沦为了一种公关策略,旨在延缓竞争对手并确保自身在未来的监管框架中占据有利地位。当话语无法得到透明行动的有力佐证时,其光环便构成了最有效的烟雾弹,使得大众在对技术奇迹的欢呼中,降低了对其潜在垄断和失控后果的警惕。

问题核心在于,当一个组织掌握了如GPT系列这样的技术基座,其CEO又展现出强大的叙事引导能力时,普通人将面临怎样的未来?首先,市场选择正在快速收窄。绝大多数AI应用的开发者都将建立在少数几个大模型接口之上,而OpenAI是当前最核心的基座。这意味着,奥特曼及其团队在产品方向、定价策略、能力开放和审查规则上的决策,将如同基础设施一样,决定整个下游应用生态的创新空间与言论边界。普通开发者和创业公司的命运,在相当程度上被锁定在上游的“模型暴政”之下。
其次,个人对数字环境的主权正在被悄然剥夺。当人们通过AI助手获取信息、创作内容甚至生成决策依据时,他们所依赖的已然不是一个客观中立的工具,而是渗透了特定模型训练数据偏好、内置价值观和商业考量的“世界观过滤器”。更严峻的是,这个“滤镜”的形成过程是不透明的:训练数据的具体构成、安全对齐的详细标准以及内容审查的精确边界,都属于高度保密的公司核心资产。普通人如同生活在一个由他人设定规则的牢笼里,却对规则本身一无所知。技术带来的理应是一种自由,但当它被极端中心化且不透明的系统掌控时,便可能沦为一种前所未有的控制与规训。

此外,对社会公平和发展机会的潜在影响值得警惕。当资源越来越向集中化、黑盒化的AI基础设施倾斜,传统的、可审计的、分布式数字技术路径可能会被边缘化。教育、就业、乃至社会保障等领域对巨型AI模型的深度依赖,将深刻改变社会权力的分布。那些能够理解和影响这一核心系统的少数人,其选择将无形中定义何为“正确的信息”、“恰当的表达”乃至“合格的能力”,而普通人在此过程中可能沦为被评测、被筛选甚至被塑造的客体。这种“被决定的未来”,是技术进步史上未曾有过的系统风险。

面对这一局面,单纯的道德谴责或对奥奥特曼个人品行刨根究底并无太多实际意义。真正关键的行动在于,如何在结构上制约中心化技术权力,并确保技术治理的多元与透明。这要求超越对技术本身的迷恋或恐惧,转向构建行之有效的监督与制衡体系。首先,公众和媒体需要放弃将技术领袖简化为“英雄或恶棍”的二元叙事,转为持续关注其所在组织的具体行动、治理结构和商业实践。对于奥特曼的“黑料”,应该转化为推动制度性变革的追问:企业的决策机制是怎样的?监督委员会的独立性如何保障?安全承诺有无可量化、可审计的实施路径?而不是停留于对个人诚信的八卦式探究。
其次,需要推动多元化和开源竞争生态的茁壮生长。市场的选择是制约垄断最直接的力量。近年来开源大模型的迅猛发展是一个积极信号,它们不仅提供了技术替代方案,更重要的是推动了标准、协议和理念的讨论。开放透明已成为一个至关重要的技术哲学乃至道德哲学命题。开发者、研究者和整个社会都应对此投以更多支持与审视,共同探索一条能够兼顾突破创新与公共福祉、技术能力与责任担当的发展道路。我们的未来,不应、也不能被任何一家公司、任何一个个体的单边“捏在手中”,而应在阳光下,由多元主体共同探索和构筑。