本文来自至顶网(net.zhiding.cn),来源 | VentureBeat。
在RSAC 2025上,Cisco、Meta与ProjectDiscovery推出专为网络安全设计的开源大模型及工具套件,携手提升SOC防护效率与精准度,应对机器级网络攻击。
随着网络攻击以机器速度加剧,开源大语言模型(LLMs)很快成为支持初创企业及全球网络安全领袖开发和部署自适应、成本效益高的防御措施的基础设施,以应对那些发展速度远超人工分析师响应能力的威胁。
开源大语言模型在更快的上市时间、更高的适应性和更低成本方面的初步优势,为提供基础设施构建了可扩展且安全的基石。在上周的RSAC 2025会议上,Cisco、Meta以及ProjectDiscovery宣布了新的开源大语言模型和一项由社区驱动的攻击面创新,这两项举措共同定义了开源在网络安全未来中的发展方向。
今年RSAC会议的一个关键收获是,开源大语言模型正在向大规模扩展和强化基础设施转变。
开源AI正处于实现多年来众多网络安全领袖所期望成果的边缘,即让众多网络安全供应商联手对抗日益复杂的威胁。鉴于RSAC上的各项宣布,协作创建统一开源大语言模型及基础设施的愿景已向前迈出了一大步。
Cisco首席产品官Jeetu Patel在主题演讲中强调:“真正的敌人不是我们的竞争对手,而是对手。我们希望确保能够提供各类工具,并使整个生态系统团结一致,从而集体对抗对手。”
Patel指出应对如此复杂挑战的紧迫性,他表示:“AI正在从根本上改变一切,而网络安全正处于这一切的中心。我们不再仅面对人类规模的威胁;这些攻击正以机器规模发生。”
Cisco的Foundation-sec-8B大语言模型定义了开源AI的新纪元
Cisco全新成立的Foundation AI小组源自于公司最近对Robust Intelligence的收购。Foundation AI专注于提供专门针对网络安全应用定制的领域特定AI基础设施,而网络安全正是最具挑战性的应用之一。基于Meta的Llama 3.1架构构建的这一款拥有80亿参数、开源权重大语言模型,并非经过改装的通用型AI;而是专门打造、经过精心训练的模型,其训练数据集为Cisco Foundation AI内部策划的网络安全专用数据集。
Foundation的AI与安全副总裁Yaron Singer写道:“从本质上讲,此任务中的问题是当今AI中最难解决的之一。为了让技术更易普及,我们决定将Foundation AI绝大部分工作公开。开源创新能够在整个行业产生叠加效应,这在网络安全领域尤为关键。”
依托开源搭建的Foundation AI,Cisco设计出了一种高效的架构方案,使得通常彼此竞争、提供类似解决方案的网络安全供应商能够合作,共同构建更加统一、更为强固的防御体系。
Singer写道:“无论您是将其嵌入现有工具中,还是构建全新的工作流程,foundation-sec-8b都能适应贵组织的独特需求。”Cisco在博客中宣布该模型时建议安全团队在整个安全生命周期中应用foundation-sec-8b。Cisco推荐的潜在应用案例包括SOC加速、主动威胁防御、工程能力提升、AI辅助代码审查、配置验证以及定制集成。
Foundation-sec-8B的权重和tokenizer已在Hugging Face上以宽松的Apache 2.0许可证开源,这使得企业能够定制和部署而无需供应商绑定,同时保持合规性和隐私控制。Cisco的博客还提到计划开源训练流水线,进一步推动社区驱动的创新。
网络安全已融入大语言模型的基因
Cisco选择打造一款专为满足SOC、DevSecOps以及大规模安全团队需求而优化的网络安全专用模型。改造现有通用AI模型无法实现这一目标,因此Foundation AI团队采用了大规模、广泛且经过精心策划的网络安全专用数据集进行训练。
通过采用更加精准的方法构建模型,Foundation AI团队确保该模型能够深入理解现实世界中的网络威胁、漏洞及防御策略。
关键训练数据集包括以下内容:
漏洞数据库:包括详细的CVE(Common Vulnerabilities and Exposures)和CWE(Common Weakness Enumerations),以准确定位已知威胁和弱点。
威胁行为映射:基于成熟安全框架(例如MITRE ATT&CK)构建,为攻击者行为及方法提供背景信息。
威胁情报报告:从全球网络安全事件和新兴威胁中获得的全面洞察。
红队作战手册:列出现实中对手的技术和渗透策略的战术计划。
真实事件摘要:关于网络安全漏洞、事件及其缓解路径的文档分析。
合规与安全指南:来自领先标准机构的既定最佳实践,包括国家标准与技术研究院(NIST)框架和Open Worldwide Application Security Project(OWASP)的安全编码原则。
这种定制化的训练方案使Foundation-sec-8B在处理复杂网络安全任务方面独具优势,提供了显著提升的准确性、更深入的上下文理解以及比通用型方案更快的威胁响应能力。
Foundation-sec-8B大语言模型的基准测试
Cisco的技术基准测试显示,Foundation-sec-8B在网络安全性能上可与体量更大的模型相媲美:
Benchmark Foundation-sec-8B Llama-3.1-8B Llama-3.1-70B CTI-MCQA 67.39 64.14 68.23 CTI-RCM 75.26 66.43 72.66
通过将基础模型设计为网络安全专用,Cisco使SOC团队能够借助先进的威胁分析提高效率,而无需为高昂的基础设施成本买单。
Cisco在博客《Foundation AI:Robust Intelligence for Cybersecurity》中详细阐述的更广泛战略愿景,解决了通用型模型领域契合度不足、数据集欠缺以及遗留系统集成困难等常见的AI集成挑战。Foundation-sec-8B正是为突破这些障碍而设计,能够在最低硬件配置下高效运行,通常仅需一到两块Nvidia A100 GPU。
Meta通过AI Defenders套件扩展开源AI安全性
Meta在RSAC 2025上同样重申了其开源策略,扩展了AI Defenders套件,以增强生成式AI基础设施的安全性。其开源工具包现已包含Llama Guard 4,这是一款多模态分类器,能检测文本和图像中的政策违规行为,从而改进AI工作流中的合规监控。
此外,Meta推出了LlamaFirewall,这是一种开源实时安全框架,整合了模块化功能,其中包括用于检测提示注入和越狱尝试的PromptGuard 2。作为LlamaFirewall的组成部分,还有Agent Alignment Checks,用于监控和保护AI代理的决策过程,以及CodeShield,专为检查生成代码中的漏洞以识别并缓解安全风险而设计。
Meta同时增强了Prompt Guard 2,提供了两种开源变体,进一步巩固了基于开源AI的未来基础设施。这两种变体包括一个高精度的86M参数模型和一个资源占用更低、延迟更低的22M参数替代方案。
此外,Meta与CrowdStrike合作推出了开源基准测试套件CyberSec Eval 4。该套件包含CyberSOC Eval,用于在真实的安全运营中心(SOC)场景中评估AI的有效性,以及AutoPatchBench,该工具用于评估AI自动识别和修复软件漏洞的能力。
Meta还推出了Llama Defenders Program,为用户提供早期使用基于开源AI的安全工具的机会,其中包括敏感文档分类器和音频威胁检测。Private Processing是一项以隐私为先,在设备上运行的AI,目前已在WhatsApp内试行。
ProjectDiscovery的Nuclei:社区驱动的开源安全创新
在RSAC 2025上,ProjectDiscovery荣获Innovation Sandbox“最具创新性初创公司”奖项,这彰显了其对开源网络安全的坚定承诺。其旗舰工具Nuclei是一款可定制的开源漏洞扫描器,由全球社区驱动,能够迅速识别API、网站、云环境以及网络中的漏洞。
Nuclei拥有一个基于YAML的庞大模板库,包含超过11,000个检测模式,其中3,000个直接对应特定CVE,从而实现实时威胁识别。
ProjectDiscovery首席运营官Andy Cao强调了开源的战略重要性,他表示:“赢得第20届RSAC Innovation Sandbox奖证明了开源模型在网络安全领域可以取得成功。这体现了我们通过社区驱动方式实现安全民主化的力量。”
ProjectDiscovery的成功与Gartner发布的2024年开源软件炒作周期相符,该周期将开源AI和网络安全工具定位在“创新触发”阶段。Gartner建议组织建立开源项目办公室(OSPO),采用软件材料清单(SBOM)框架,并通过有效的治理措施确保符合法规要求。
为安全领导者提供的可行见解
Cisco的Foundation-sec-8B、Meta扩展后的AI Defenders套件以及ProjectDiscovery的Nuclei共同表明,当开放、协作以及专业领域知识跨越公司界限实现融合时,网络安全创新才能蓬勃发展。这些公司及其他类似企业正为所有网络安全供应商成为构建高效、低成本防御措施的积极合作者铺平道路。
正如Patel在主题演讲中强调的那样:“这些不是幻想,而是真实案例,即将实现,因为我们现在拥有为每个人负担得起的专用安全模型。凭借最先进的推理能力,更优的安全效能将以极低的成本实现。”