生成式人工智能技术的突破性进展,正推动AI视频制作加速普及,在提升创作效率、活化历史记忆等方面展现出巨大潜能,成为数字时代的内容生产利器。但技术若被恶意用于金融欺诈、政治渗透、谣言制造、间谍窃密等非法活动,将侵害公民合法权益,甚至扰乱社会秩序、危害国家安全。
当全球企业加速拥抱人工智能时,一场静默的网络安全范式革命正在酝酿。Gartner在2026年初发布的预测犹如一记警钟:到2028年,50%的企业网络安全事件响应工作将聚焦于涉及定制AI应用程序的安全事件。
聊天机器人扮演着一个随时在线、被设定为给你加油打气的对话伙伴,与朋友不同的是,它们几乎无法判断你和 AI 的对话是否已经开始干扰你的现实生活。
OpenClaw(昵称“龙虾”)是一款开源AI智能体工具,上线不久便迅速成长为2026年度现象级“开源奇迹”。不少用户从付费安装“龙虾”,到付费卸载“龙虾”,养“龙虾”正在成为一场智能体的狂欢。但火热的“龙虾”在创新改变生活的同时,也存在原生风险。
315晚会曝光GEO投毒,本质上是揭开了AI时代的“认知战争”序幕。当生成式AI成为新的信息入口,控制AI的认知,就等于控制用户的认知。这场战争的武器不是代码,而是内容。
随着混合架构、AI 驱动型工作负载以及跨团队的共享运营责任不断模糊安全、云与网络团队之间的边界,行业关注点已经从“增加工具”,转向“简化工具”。
当前,具身智能在从实验室走向产业化应用的进程中,正面临多重安全挑战,亟须以系统性思维构建安全与产业协同共进的新范式,为产业高质量发展注入安全动能。
近日,工业和信息化部、国家网信办、国家发展改革委、国家数据局、公安部、自然资源部、交通运输部、市场监管总局等八部门联合印发《汽车数据出境安全指引(2026版)》(以下简称《安全指引》)。工业和信息化部有关负责人就《安全指引》相关问题回答了记者提问。
人工智能的采用速度很快,但全球范围内很不均衡。与深度伪造相关的事件正在增加,当前的风险管理技术仍然存在缺陷。
防火墙成本将在2026年暴涨,因此更应该用好防火墙,其中自动更新通过显著缩短漏洞披露与修复之间的时间差,在降低补丁延迟、提升设备一致性、并支持大规模“安全即设计”运作方面,发挥着关键作用。然而,这一能力在实际安全建设中,往往被严重低估。
随着AI助手深入日常工作流程,安全团队仍专注于保护模型本身,但真正风险在于围绕模型的工作流程。近期恶意Chrome扩展窃取90万用户ChatGPT数据,以及代码库中隐藏的提示注入攻击IBM AI编程助手等事件表明,攻击者无需破解AI算法,而是利用AI运行的上下文环境。
AI是否真正大规模进入核心业务,关键不在于模型能力又提升了多少,而在于一旦出现问题,系统能否被及时停下,过程能否被追溯,责任能否被清晰界定。在这些问题解决之前,安全都会是AI落地过程中最现实、也最难绕开的门槛。