21世纪经济报道记者白杨北京报道。
AI大模型时代,网络安全企业如何参与其中?Chianxin交出了答卷。8月25日,Chianxin正式发布了Q-GPT安保机器人和大模卫士两款产品。
前者是Chianxin为安全领域打造的大行业模型,让企业借助大模型提升安全防护能力;后者是解决大模型安全问题的产品,可以帮助企业更安全地使用大模型产品。
提高安全生产率
在网络安全领域,政府和企业长期面临三大问题,即报警疲劳、专家缺乏和效率瓶颈。
对此,长安信集团董事长齐向东表示,自从长安信开始培养自己的GPT安全模型以来,它就制定了明确的目标。这个产品一定不是一个问答对话框,而是一个智能机器人,可以帮助或代替安全专家执行复杂的任务。
在现场演示中,某企业的安全分析平台收到大量报警。一般来说,安全专家的极限只能对1%的重要告警进行分析判断,通过Chianxin安全机器人可以对所有告警进行实时自动判断,筛选出需要响应和处理的告警。
对于Q-GPT安全机器人,启安信集团副总裁左也提到“大模型是否智能,取决于知识数据的质量。比如GPT写代码,生成最高质量代码的不是OpenAI、Google、Meta等巨头,而是GitHub推出的Copilot,因为GitHub在全球有9400万开发者贡献高质量的代码和评论。”
在安全模型中,能否做好安全分析,也取决于背后的数据和经验积累。在训练前的数据层面,据左介绍,Chianxin拥有数百亿的安全日志、文档、知识库和情报数据,存储容量高达数百PB。
解决大型模型的安全问题
随着大规模模型在越来越多行业的应用,相关的安全风险也随之出现。
Chianxin集团副总裁张卓告诉记者,据统计,使用ChatGPT的大部分员工都会泄露数据,其中11%是企业的敏感数据。越来越多的办公产品集成了大模型,这意味着会有更多的员工使用大模型,加剧企业敏感数据泄露的风险。
张卓以某行业龙头企业A为例,称该企业拥有大量核心技术专利,形成了强大的技术壁垒。然而,由于大量员工使用大型模型应用处理日常工作,缺乏监管,公司的敏感技术信息在最终的数据馈送过程中不断泄露。久而久之,这些重要的技术信息成为GPT知识库的一部分,并通过GPT传递给同行竞争者,从而导致企业核心竞争力的逐渐丧失。
然而,作为一个现代企业,如果它不积极利用GPT来改善其技术,产品和营销,它将面临落后的风险。
基于此,Chianxin推出了大模型守护产品。可以帮助企业建立内部技术监管手段,防止员工将敏感数据喂给大模型,同时通过身份与数据的关联,在发生数据泄露风险时,可以快速找到数据泄露的主体。
张卓表示,目前大模型卫士已经能够完美适配主流大模型应用,在终端侧和网络侧,通过检测审计平台、安全代理网关(SWG)等工具,实现了对GPT的精准控制。
(作者:白阳编辑:罗一凡)
南方财经全媒体集团及其客户发布内容的知识产权归其媒体所有。未经书面授权,任何人不得以任何方式使用。请点击此处获取详细信息或授权信息。
微信扫码
QQ扫码
您的IP:10.1.228.218,2025-12-19 04:46:44,Processed in 0.27358 second(s).