收藏文章 楼主

逐浪丨从“用”和“防”两端着手奇安信加码大模型

版块:科技头条   类型:普通   作者:科技资讯   查看:37   回复:0   获赞:0   时间:2023-08-27 04:50:50

21世纪经济报道记者白杨北京报道。

AI大模型时代,网络安全企业如何参与其中?Chianxin交出了答卷。8月25日,Chianxin正式发布了Q-GPT安保机器人和大模卫士两款产品。

前者是Chianxin为安全领域打造的大行业模型,让企业借助大模型提升安全防护能力;后者是解决大模型安全问题的产品,可以帮助企业更安全地使用大模型产品。

提高安全生产率

在网络安全领域,政府和企业长期面临三大问题,即报警疲劳、专家缺乏和效率瓶颈。

对此,长安信集团董事长齐向东表示,自从长安信开始培养自己的GPT安全模型以来,它就制定了明确的目标。这个产品一定不是一个问答对话框,而是一个智能机器人,可以帮助或代替安全专家执行复杂的任务。

在现场演示中,某企业的安全分析平台收到大量报警。一般来说,安全专家的极限只能对1%的重要告警进行分析判断,通过Chianxin安全机器人可以对所有告警进行实时自动判断,筛选出需要响应和处理的告警。

对于Q-GPT安全机器人,启安信集团副总裁左也提到“大模型是否智能,取决于知识数据的质量。比如GPT写代码,生成最高质量代码的不是OpenAI、Google、Meta等巨头,而是GitHub推出的Copilot,因为GitHub在全球有9400万开发者贡献高质量的代码和评论。”

在安全模型中,能否做好安全分析,也取决于背后的数据和经验积累。在训练前的数据层面,据左介绍,Chianxin拥有数百亿的安全日志、文档、知识库和情报数据,存储容量高达数百PB。

解决大型模型的安全问题

随着大规模模型在越来越多行业的应用,相关的安全风险也随之出现。

Chianxin集团副总裁张卓告诉记者,据统计,使用ChatGPT的大部分员工都会泄露数据,其中11%是企业的敏感数据。越来越多的办公产品集成了大模型,这意味着会有更多的员工使用大模型,加剧企业敏感数据泄露的风险。

张卓以某行业龙头企业A为例,称该企业拥有大量核心技术专利,形成了强大的技术壁垒。然而,由于大量员工使用大型模型应用处理日常工作,缺乏监管,公司的敏感技术信息在最终的数据馈送过程中不断泄露。久而久之,这些重要的技术信息成为GPT知识库的一部分,并通过GPT传递给同行竞争者,从而导致企业核心竞争力的逐渐丧失。

然而,作为一个现代企业,如果它不积极利用GPT来改善其技术,产品和营销,它将面临落后的风险。

基于此,Chianxin推出了大模型守护产品。可以帮助企业建立内部技术监管手段,防止员工将敏感数据喂给大模型,同时通过身份与数据的关联,在发生数据泄露风险时,可以快速找到数据泄露的主体。

张卓表示,目前大模型卫士已经能够完美适配主流大模型应用,在终端侧和网络侧,通过检测审计平台、安全代理网关(SWG)等工具,实现了对GPT的精准控制。

(作者:白阳编辑:罗一凡)

南方财经全媒体集团及其客户发布内容的知识产权归其媒体所有。未经书面授权,任何人不得以任何方式使用。请点击此处获取详细信息或授权信息。

 
回复列表
默认   热门   正序   倒序

回复:逐浪丨从“用”和“防”两端着手奇安信加码大模型

Powered by 7.12.10

©2015 - 2025 90Link

90link品牌推广 网站地图

您的IP:10.1.228.218,2025-12-19 04:46:44,Processed in 0.27358 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com