网络安全AI智能体;金融业;落地挑战;实践探索

网络安全AI智能体在金融业落地挑战与实践探索

作者:青藤云安全 林崇攀 刘凯

数字经济浪潮下,金融行业数字化转型已步入深水区,机遇与挑战并存。一方面,线上化、智能化业务蓬勃发展,给金融行业带来新的增长点;另一方面,技术的快速更迭也使得金融机构面临前所未有的网络攻击态势,且攻击手段日趋隐蔽化、复杂化、定向化,金融行业传统依赖静态规则的网络安全防护体系在海量告警处置、高级威胁研判等方面正面临严峻挑战。近年来,以大模型为核心的人工智能技术为网络安全防护模式升级提供了全新路径,AI智能体在网络安全场景的落地应用,成为金融机构提升安全防护效能的核心抓手。

然而,网络安全AI应用要在金融行业真实业务环境中实现规模化落地,还面临着算力适配、数据处理、研判可信度等现实挑战。为此,青藤云安全创新打造了网络安全AI智能体——青藤“无相 AI”,并在金融、电信、制造、互联网等高安全需求行业头部客户的真实业务环境中完成测试与落地探索。本文基于青藤 “无相AI”在6家金融机构的实测数据与落地经验,系统梳理网络安全 AI智能体在金融行业真实场景落地的核心共性挑战,分享有针对性的应对策略与落地成效,旨在为金融行业网络安全AI能力建设提供参考。

一、金融行业网安AI智能体落地的核心挑战

1.公共算力平台及通用大模型的兼容适配挑战

通用大模型进化速度远超安全垂直大模型,行业客户倾向于使用公共算力平台和通用大模型,对此,AI智能体必须首先解决好与公共算力平台和通用大模型兼容对接的问题。这主要包括以下两个方面:

     一是算力平台token用量限制挑战。当前,大多数算力平台设有 “单位时间tokens用量限制”,“单位时间”尺度默认为每分钟,部分算力平台 “单位时间”尺度也可支持日、周、月等时间单位。在网络安全场景中,大模型token调用需求在时间分布上具有不均衡性,若算力平台使用较小的“单位时间”尺度设置token用量限制,则极大概率会出现因超过token用量限制导致研判任务失败的情况。

     二是大模型安全围栏限制挑战。为满足大模型安全合规要求,算力平台通常设有大模型安全围栏等安全机制,这是防范大模型被恶意滥用的必要防护手段。在网络安全专用智能体开发场景,大模型安全围栏限制策略若设置不合理,会出现误拦截智能体大模型调用请求的情况,进而导致任务失败。

2.海量告警处理与有效告警研判之间的矛盾

金融机构的网络安全设备部署广泛,流量侧告警规模庞大,对海量告警进行处理并有效研判告警是网络安全AI智能体落地应用的核心场景,同时也是矛盾最为集中的环节,具体体现在以下两个层面:

     一是流量侧海量告警与有限算力的矛盾。针对流量告警,与基于静态规则的研判相比,大模型研判需要更多的思考和响应时间,且算力资源的稀缺性限制了AI研判的并发效率,巨量告警的持续涌入会一直打满研判队列,导致告警永远研判不完。

     二是流量侧告警数量多与有效信息少的矛盾。流量数据格式非常标准,这使得流量数据中的 payload信息相较于端侧各类复杂的上下文信息更容易分析。然而,流量侧的告警所提供的信息却十分有限,若大模型仅基于告警数据进行研判,其准确率将大幅降低,并产生海量误报,真实攻击极可能淹没在海量误报中,导致系统性“失信”。

二、网络安全AI智能体落地的具体问题解析与解决实践

针对上述网络安全AI智能体落地的核心挑战,青藤基于“无相AI”在多家金融机构的实践落地经验及实网测试情况,对具体问题进行了解析,并探索出一套行之有效的落地方案。

1.适应网络安全场景的token用量限制策略

(1)场景问题解析

算力平台通常以分钟为单位设置token用量限制,默认为数十K tokens/min。实测中发现,以短时间尺度为单位的token用量限制策略,并不适用于网络安全场景。一方面,智能体越高级,其能自主处理的任务就越复杂,任务消耗的 token也就越多。另一方面,网络安全场景的告警数据在时间分布上具有极大的不均衡性,这就导致大模型调用需求也具有脉冲式特性。当真正需要并发研判告警时,短时间尺度的token用量限制会导致任务失败。告警研判token用量观测数据见表1。

表1 告警研判token用量观测数据

(2)落地实践

金融机构落地应用AI智能体需要重视的第一个关键问题,是在算力资源申请时提出明确的、适应网络安全场景的token用量限制策略。一是时间尺度选择。因告警数据具有时间分布不均衡的特性,在算力申请时,应尽可能选择长时间尺度的 token限制策略,至少应支持以日为单位尺度的 token限制策略。二是用量估算方法。token限制策略的具体数值需根据“每日需研判的告警量×单次研判token用量”来估算。参考表1数据,单次研判token用量的观测均值约为27K tokens。

2.兼顾效率与合规的大模型安全围栏策略

(1)场景问题解析

部分算力平台默认开启了全局的大模型安全围栏,安全研判任务的输入数据因本身包含大量的真实入侵样本和入侵行为数据,会被安全大模型拦截。但事实上,智能体各项任务请求本身并不违反任何法律、法规和道德,且相同的任务请求,使用互联网上公共算力平台提供的模型验证均可正常响应。

分析其原因,大模型安全围栏需要能够有效区分模型应用场景,特别需要区分专用智能体场景和通用聊天机器人场景,不能采用一刀切的安全围栏策略。

专用智能体场景有别于通用聊天机器人场景,其面向的用户群体、任务范围和数据范围具有明显区别,合规重点也应有所侧重。专用智能体与通用聊天机器人对比见表2。

表2 专用智能体与通用聊天机器人对比

 

(2)落地实践

应用是基础,合规是保障。在网络安全AI智能体应用落地时,应寻求效率与合规兼顾的安全大模型及安全围栏策略,平衡合规要求与业务可用性。

一是按场景区分安全围栏策略。面向专用智能体场景,应采取宽松的安全围栏策略,安全大模型的安全围栏策略需能够区分场景,为不同应用场景的API-key设置不同安全围栏策略。

二是场景化围栏策略定制。因专用智能体的输入prompt和数据范围都是相对固定的,安全大模型可在仅告警不拦截模式下运行一段时间,观察学习该专用智能体会触发哪些安全围栏告警,经审核后针对该智能体API-key取消其触发的安全围栏策略,即完成了场景精细化安全围栏策略定制。

3.AI辅助的数据源头降噪机制

(1)场景问题解析

流量设备告警量巨大,以32套NDR设备为例,其日均上报告警数据量超80万条,而测试算力资源每分钟能够支持研判的告警并发量只有40条,大量告警持续堆积会导致研判任务愈发缓慢。分析其原因,一方面和大模型本身的特性有关,相比于静态规则研判,大模型研判需要更多的思考和响应时间,虽然提高了智能化程度,但牺牲了处理效率;另一方面则与算力资源的稀缺性有关,算力资源不是无限的,当算力处理能力远低于告警研判需求时,需审视告警数据的质量问题。

(2)落地实践

算力的稀缺性决定了高价值数据的重要性,近百万流量告警中存在大量明显无需研判的低价值告警数据,在告警进入研判队列前,通过构建"系统预设规则—AI过滤规则—告警聚合"的三级降噪体系,可过滤掉99%以上明显的噪声数据,实现源头降噪。

系统预设过滤规则:根据实际数据与业务情况,筛选出某些明确不需要进一步研判的情况,如响应码为403/404的告警等,可过滤掉80%以上的噪声数据。

AI过滤规则:基于告警数字人研判的结果和专家标注的误报告警,一方面,AI会归纳总结所有误报数据产生的原因,进而生成过滤规则;另一方面,AI生成新规则时也会审视已有的AI过滤规则,并与之融合、归并,从而收敛规则数量,提高过滤效率。AI过滤规则可再过滤70%左右的明确误报数据。

告警聚合规则:对经过前两道过滤的告警,在进入研判队列之前,对其进行聚合过滤,即告警触发后的短时间内,若后续告警满足聚合规则,则在研判队列中只保留聚合后的告警。

实践表明,经过三级降噪后进入研判队列的告警,经过告警研判数字人研判分析后,日均需人工审核的告警降至约200条(如图1所示)。

 

图1 告警数据三级降噪事件成效示意图.png

图1 告警数据三级降噪事件成效示意图

4.端网联动的上下文增强研判模式

(1)场景问题解析

在应用大模型进行告警研判时,如果仅依靠原始告警信息研判,其准确率普遍较低且研判结论不稳定,存在两种极端情况:一是当仅关联各类安全产品原始告警信息进行研判时,大模型普遍倾向于将告警研判为真实攻击,实则大量都是误报;二是在调整prompt,给予大模型更为严格的真实性判定原则后,大量研判任务会因信息不足超过最大调查轮次而研判失败。

(2)落地实践

仅通过关联告警来研判告警无法支撑有效告警研判,需补充端侧高价值数据,改变 “以告警研判告警” 的传统模式,构建 “以上下文研判告警” 的有效研判模式:一是构建数据关联机制,将流量侧告警关联到主机上的服务、进程等对象,进而调查其告警时间前后的端侧行为数据,补充全上下文信息;二是优化研判逻辑,通过流量侧告警关联端侧的业务上下文信息进行综合分析,而非仅依赖单一告警字段。

以某次因管理员忘记密码触发的暴力破解告警为例,NDR和HIDS上报了暴力破解告警,若仅通过关联告警进行研判,大模型倾向于研判其为真实攻击。青藤“无相AI”基于对主机上下文信息的研判,将告警正确识别为管理员的运维操作,未发现可疑行为,判定为“可忽略”(如图2所示)。

图2 端网联动“以上下文研判告警”实例.png

图2 端网联动“以上下文研判告警”实例

三、落地实践成效总结

基于上述青藤“无相AI”在实网测试及落地成效等方面的突出成效,青藤云安全打破了网络安全AI智能体从实验环境到真实业务场景的落地瓶颈,具体表现在以下几个方面。

1.广泛兼容适配公共算力平台和通用大模型

通过场景化的token策略与分场景的安全围栏优化方案,青藤“无相AI”实现了与金融机构主流公共算力平台、通用大模型的稳定兼容对接,为 AI智能体在金融行业的规模化落地奠定了基础。

2.海量告警处理效能实现量级跃升

通过多级联动的告警源头降噪体系,青藤“无相 AI”可处理日均百万级告警数据,最终日均需人工审核的告警仅200条左右,告警收敛率超 99%,让有限的算力资源聚焦于对有效告警的研判,极大释放了网安运维人员的工作压力。

3.威胁研判准确率与可靠性全面提升

通过端网联动的全上下文研判模式,青藤“无相 AI”打破了“以告警研判告警”的传统局限,告警研判准确率和可解释性实现质的提升。实测数据显示,基于全上下文的研判模式,研判置信度普遍达98%以上,使AI研判结果真正可信、可用。

 

(免责声明:本文为本网站出于传播商业信息之目的进行转载发布,不代表本网站的观点及立场。本文所涉文、图、音视频等资料之一切权力和法律责任归材料提供方所有和承担。本网站对此咨询文字、图片等所有信息的真实性不作任何保证或承诺,亦不构成任何购买、投资等建议,据此操作者风险自担。)

广告等商务合作,请点击这里

本文为转载内容,授权事宜请联系原著作权人。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开