收藏文章 楼主

商汤大模型发布会,商汤大模型训练的数据哪里来

版块:科技头条   类型:普通   作者:科技资讯   查看:41   回复:0   获赞:0   时间:2023-08-31 06:16:16

8月28日,商汤科技公布了截至2023年6月30日的6个月中期业绩。财报显示,公司营业收入14.3亿元(人民币),同比增长1.3%,整体营收表现稳定。财报显示,大语言模型InternLM-123B在12项权威评测中超过GPT-4,综合性能超过GPT-3.5-turbo。

2023年上半年,商汤发布了“日益成长”的大模型体系,并发布了国内首个综合性能超过GPT-3.5-turbo的基础模型学者InternLM。InternLM是商汤、上海ai实验室等多家国内顶级科研机构发布的预训练大语言模型。大语言模型的研发投入了约10000个GPU,使其能力得到了突飞猛进的发展。

InternLM-123B表现亮眼,在12项权威评测结果中排名第一。

2023年8月,新型号InternLM-123B的训练完成,参数量增加到1230亿。新模式的语言、知识、理解、推理、纪律五项能力得到了显著提升。51个知名评测集(包括MMLU、Agieval、ARC、Ceval、Race、GSM8K等)的测试成绩。)以30万题整体排名世界第二,超过了Meta新发布的GPT-3.5-turbo和骆马2-70B。

InternLM-123在12大测评中排名第一。其中,57.8的AGIEval得分超越GPT-4在评价集综合考查中排名第一;知识问答CommonSenseQA评价得分88.5排名第一,NaturalQuestions排名第二;InternLM-123B在阅读理解方面排名第一的是C3、CMRC、种族(中)、种族(高)和兰巴达。此外,InternLM-123B在推理WinoGrande、StoryCloze、HellaSwag、StrategyQA和SIQA的评测中均排名第一。

商汤的大语言模型能力突飞猛进。

商汤在2023年4月推出了SenseChat1.0,这是国内最早的基于拥有数千亿参数的大语言模型的聊天机器人产品之一。6月,第一款基础车型InternLM发布,综合能力超越GPT-3.5-turbo,参数1040亿。它使用1.6万亿令牌的多语言语料库进行训练,支持20多种语言。在此基础上,7月初发布了咨询SenseChat2.0。

8月,商汤发布了InternLM-123B,不仅生成了更加准确可靠的内容,还具备了自我反思和纠错的能力。InternLM-123B还重点升级了代码解释器和插件函数调用能力。python解释器、API调用和搜索可用于解决复杂任务,灵活构建AI agent应用。在此基础上,讨论SenseChat将于9月升级至3.0版本。

商汤与多家科研机构合作,支持和推动AI开源平台建设。INTERNLM-7B(70亿个参数)的部分训练数据、训练代码和基本模型权重已经向学术界和工业界免费开源,并支持商业化。此外,InternLM-7B在多个模型测试榜单中均排名第一,成为性能最佳的轻量级基础模型。商汤表示,期待看到AI社区完善InternLM,打造更多AI应用。

事实上,大语言模式的突破带来了新的机遇。基于InternLM的轻量级模型,结合自研的推理加速算法,商汤与头部手机芯片厂商建立了R&D合作,成功实现了大语言模型在手机上的实时计算能力。商汤表示,正在积极与多家手机厂商的客户合作,开发大语言模型与手机操作系统相结合的新功能。

商汤集团董事局执行主席兼首席执行官徐莉博士表示:“在这半年时间里,大模型和生成式AI可以说是全球最显著的技术突破。商汤进入了极其关键的发展时期。我们希望为行业带来更强的大模型能力,帮助我们的用户在生成式AI时代做出颠覆性的产品,以取得成功。”

 
回复列表
默认   热门   正序   倒序

回复:商汤大模型发布会,商汤大模型训练的数据哪里来

Powered by 7.12.10

©2015 - 2026 90Link

90link品牌推广 网站地图

您的IP:10.1.228.218,2026-01-02 22:18:49,Processed in 0.25498 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com