精彩内容在最后
从2025年年初开始,Ian Webster就在琢磨AI安全测试这个难题,在利用业余时间搞开发的期间,他还沉浸在Discord的日常工作当中,丝毫没意识到Promptfoo这个开源小工具已经火得一塌糊涂,GitHub上攒下了1万多颗Star,248个contributor都在帮着完善代码。
在完成两轮融资之后,Promptfoo已经拿下了Anthropic、谷歌甚至是亚马逊这样的大厂客户,而传统安全厂商们仍然是老一套的防火墙、代码审计包括人工检查。种子轮a16z投了500万,A轮Insight Partners又砸了1840万,这两次融资让Promptfoo的估值涨到了8600万美元,可是Ian Webster却做出了一个惊人的决定——把自己辛苦养大的孩子卖给OpenAI,23人的团队整体加入。
如今,OpenAI正在拼命补齐AI安全的短板,明明已经砸钱收购了Promptfoo这支精干队伍,可是面对提示词注入、模型越狱这些新威胁,依然有大量的漏洞防不胜防。2025年OpenAI要应对的挑战比单纯的技术难题还要棘手,OpenAI与Anthropic正在抢占企业级AI安全的市场,其他小公司却连门槛都摸不到,究竟是哪一个环节决定了胜负呢?让我们一起来看。
AI安全测试作为大模型落地应用中最关键的一环,如果OpenAI在防护能力上输给了Anthropic,就意味着即使在自家的Frontier平台里,也无法让企业客户放心地把核心数据交出来。Promptfoo的价值已经不言而喻,与OpenAI的安全战略紧密相连,即便是科技巨头比如谷歌、Anthropic内部,也在用这个工具做测试,用户还包括超过35万名开发者和25%的世界500强企业。
在开源社区里,虽然Promptfoo的Star数量与顶级项目相比还差得远,但是它依然有很大的机会能够拿下更多企业客户。可是在闭源商业领域当中,Promptfoo就像个刚入行的新手一般,根本不知道从何处去追赶那些老牌安全厂商的步伐。
随着OpenAI对Promptfoo的收购落地,其安全能力也在不断补强,可是OpenAI没意识到的一点,除了一小部分技术得益于Promptfoo团队,市场上很多AI安全方案其实都来自于开源社区的智慧。
就拿Anthropic的Claude Code Security来说,这是一款专门扫描代码漏洞的工具,用在开发流程里,能够极大保障代码交付更加顺畅,它比传统的规则扫描器聪明得多,能发现那些上下文依赖的隐蔽漏洞。单是这一款产品,Anthropic就足足投入了海量的时间和算力,才打磨出一款真正合格的扫描器。
那么除了Anthropic之外,如今OpenAI收购的Promptfoo,说白了都是OpenAI从市场上花钱买回来的技术,尤其是Insight Partners和a16z这些投资方,主导了Promptfoo的融资,把控着公司的大部分股权。
这些AI安全工具都有一个共同点,那就是烧钱烧得厉害,通常情况下,部署一套完整的安全测试方案能够花费几千万,而且后期维护也要花大力气,除了要支付昂贵的授权费,还必须要养一支专业团队来不断升级,十分麻烦。
有人说,OpenAI为什么不自己组建团队研发这些工具,非要花钱收购?这话就是说起来容易,做起来难。以前在传统的网络安全领域,OpenAI或许可以通过自研解决问题,可是AI安全测试的技术门槛远不及基础模型研发那么高吗?并非如此,其技术积累几乎是从零开始,所以直到现在,OpenAI连一些基本的红队测试工具都造不出来。
当然,我们也不能苛求OpenAI,在这么短的时间内就追赶上传统安全厂商几十年的积累,毕竟,AI安全体系建设就像是酿酒,完成积累的时间不是一蹴而就的,能够在短短几年时间里,通过收购Promptfoo做到现如今的整合,OpenAI已经很了不起了。
如今,OpenAI的Frontier平台已经具备了较高的安全防护水平,在收购Promptfoo之后,使用这个工具的企业客户会越来越多。并且,OpenAI在自动化红队演练方面已经整合了Promptfoo的能力,在未来的市场竞争中只有把这些安全功能做扎实,才能真正赢得企业客户的信任,让AI应用在规模化落地中既强大又安全可靠。