随着新一轮科技革命和产业变革的快速发展,数字技术、智能经济和数字产业已成为新产业、新商业形式和新模式的关键领域。ChatGPT发布仅6个月,引发了全球人工智能(AI)该行业的大型模型繁荣。在最近举行的中国人工智能产业年会上,人工智能模型带来的安全挑战和发展机遇已成为与会专家的热门话题。
(资料图)
赋能千行百业
ChatGPT在与人类对话、写作文、写代码等方面的惊人表现,是AI大型GPT通过大计算能力和大规模训练数据突破自然语言处理瓶颈的结果。然而,大模型本身并不是什么新鲜事,人工智能大模型不仅仅是GPT。近年来,许多科技巨头都在“精炼”大模型,并积累了自己的积累。这也是ChatGPT走红后,各巨头短短几个月就纷纷推出竞品的原因。
电子科技大学教授、考拉悠然科技有限公司联合创始人沈复民表示:“以ChatGPT为代表的多模式通用大模型将深刻改变各行各业。”,行业人工智能可以有效促进技术与市场供需平衡,这将是人工智能产业化的最大机遇。人工智能技术落地行业时,需要克服开发效率低、落地成本高、场景复杂多样等问题。
2022年,沈复民所在的研发团队获得了吴文俊人工智能科学技术奖自然科学一等奖。据他介绍,团队开发了垂直行业多模态人工智能操作系统,基于行业多模态大模型、多模态集成分析、机器视觉核心人工智能算法支持,可以让企业摆脱复杂的算法、计算能力、数据集成工作,快速孵化行业大模型,高效应用于工业制造、城市治理、消费、能源、交通、建材等业务场景。
“通用对话技术是人工智能领域最具挑战性的方向之一,也被认为是通用人工智能的必要能力。如今备受关注的对话人工智能背后有一般的对话技术。百度首席技术官、深度学习技术与应用国家工程研究中心主任王海峰说。在中国人工智能产业年会期间,他带领团队完成的“知识与深度学习融合的通用对话技术与应用”成果获得2022年吴文军人工智能技术进步奖特等奖。
根据公开信息,该研究项目已获得82项授权发明专利,发表36篇高水平论文,并在国际权威评估中获得11项世界冠军。目前,项目成果已实现大规模工业应用,支持5亿智能设备,服务10多亿用户,覆盖通信、金融、汽车、能源等20多个行业。
争取“主动安全”
技术是一把双刃剑。大型人工智能模型的能力越大,滥用造成的伤害就越大。目前,ChatGPT等工具被用来生成虚假新闻、虚假照片、虚假视频,甚至欺诈等犯罪行为,引起人们对大型模型安全的担忧。
西北理工大学教授王震是网络空间智能对抗应用研究领域的专家。他认为,网络空间智能对抗应该由人工智能驱动。例如,利用人工智能检测和识别有害信息,构建“主动安全”的智能防御网络。
蚂蚁集团人工智能风险管理负责人杨舟表示:“只有在人工智能的发展过程中,我们才能面对和解决问题,找到机会。”。在人工智能管理中,安全事件对日常风险管理至关重要。“我们需要关注和预测相关事件,分析安全问题,避免发展带来的风险。”
了解机制是安全管理的基础。然而,大型模型的“智能出现”仍然是一个难以解释的黑盒子。没有人能理解、预测或可靠地控制这些大型模型,甚至模型的创造者也无法。开发ChatGPT的公司OpenAI也为大型模型进行了大量的价值敏感设计和道德嵌入,但仍存在明显的漏洞和局限性。
瑞莱智能公司首席执行官田天表示:“虽然大模型的能力越来越强,但如果不进行特殊的安全培训或安全加固,其脆弱性将不会得到任何改善。”。人工智能大模型的安全面临许多挑战。
“大型模型是人工智能发展的转折点,研究人员需要进一步了解为什么这些大型模型具有人类思维的能力。香港科技大学教授冯燕说,ChatGPT最初只作为一个科研项目发布,但通过加入人机交互界面,它迅速成为网络名人产品。其爆红带来的伦理问题出乎意料,也挑战了生成式人工智能的管理。“只有真正开源,才能共同研究,了解大模型存在的问题和根源,更好地管理。”
商汤科技人工智能伦理与治理研究主任胡正坤说:“尚汤一直是开源的贡献者和支持者,但我们在开源方面应该更加谨慎,特别是对于大型模型,安全防护体系还不完善。”。在智能时代,开源底层模型并不一定安全,因为在开放能力的同时,它也在开放弱点,这些弱点可能会被罪犯利用。
迫切需要深度治理
专家们对未来人工智能的长期治理提出了各种想法。
“价值设计不能被视为治理的唯一途径。复旦大学应用伦理研究中心教授王国宇认为,现阶段人工智能治理的局限性可以从三个方面采取。第一,充分评价数据和模型的伦理影响和风险点;第二,在过程中,不仅要考虑一般模型,还要考虑社会生态系统、社会政治经济系统;第三,在一般模型背景下探索伦理方法,充分探索“价值敏感设计”、“责任创新”等伦理方法的可行性。
中国社会科学院哲学研究所科技哲学研究办公室主任、研究员段伟文表示,我们需要警惕机器驯化人类思维。例如,有些人不擅长社交网络,可以通过人工智能生成对话来帮助他社交聊天。这种对话机制反过来会驯化人类。他建议加强人类与人工智能的互动和沟通,不仅要了解人类如何修复机器,还要研究机器如何影响人类。
中国科学院自动化研究所研究员曾毅期待着建立人工智能的道德直觉。“为机器人和人工智能”是一个重要的长期工作目标。“加强学习的奖惩只是加减,除非人工智能实现基于自我的道德直觉,否则对道德的理解并不真正。缺乏自我的人工智能不能有真正的道德直觉,做出真正的道德决策。我们正在建立一个基于类脑脉冲神经网络的人工智能引擎,希望让它像孩子一样学习,获得自我感知。”曾毅说。
“从要求大型人工智能模型符合伦理,到真正构建道德人工智能。”曾毅说,未来通用人工智能和超级智能的伦理安全问题应该从现在开始关注和准备。
(文章来源:经济日报)
微信扫码
QQ扫码
您的IP:10.8.251.137,2025-12-17 18:27:59,Processed in 0.25987 second(s).