C114讯北京时间8月31日下午消息(蒋),国家网络安全中心()概述了集成人工智能驱动的大语言模型(LLM)对企业带来的风险,并警告开发者仍未完全掌握系统的弱点和漏洞。
在一篇博客文章中,该安全机构承认,自2022年OpenAI的ChatGPT发布以来,大语言模型一直吸引着全球的兴趣和好奇心,导致所有行业的组织都在研究这项技术在业务中的使用。
然而,作为一个快速发展的领域,NCSC专家发现,该模型在不确定的市场中不断更新。这可能意味着,今天提供服务的创业公司,两年后可能就不存在了。
因此,使用大型语言模型来构建业务的组织需要考虑这样一个事实,即模型可能会在他们使用的API背后发生变化,从而导致集成的关键部分在某个时候不复存在。
该机构进一步指出,大语言模型嵌入机构业务流程时,可能会带来一定的风险。研究人员发现,大型语言模型“无法区分指令和为帮助完成指令而提供的数据”。
NCSC举例说,如果输入提示结构正确,银行使用的AI聊天机器人可能会被诱骗向攻击者汇款或进行未经授权的交易。
“使用大型语言模型来构建业务的组织需要小心,就像他们使用处于测试阶段的产品或代码库一样。”NCSC补充道。
您的IP:10.3.59.82,2025-07-30 05:38:28,Processed in 0.21727 second(s).