收藏文章 楼主

鹏城云脑II连续五次超算打榜获世界第一

版块:科技头条   类型:普通   作者:科技资讯   查看:47   回复:0   获赞:0   时间:2023-05-26 12:08:24

5月22日,鹏城实验室在2023年大湾区科学论坛上发布了鹏城星云系统和星方数据——这是一个科研云平台,支持国际科学计划和工程需求,重点关注天文学和遥感学科。

鹏城星云系统依托“鹏城云脑”Ⅱ而构建。鹏城云脑Ⅱ据中国工程院院士、鹏城实验室主任高文介绍,是国内首个独立的E级AI计算平台,是“1018立方米、每秒16位复点计算机平台”。目前,云脑Ⅱ连续五次在超算榜上获得世界第一名。


(资料图)

彭城实验室成立于2018年,位于深圳,主要从事网络空间信息研究,定位为省级实验室;2022年被列入国家实验室。

相比之下,鹏城实验室的合作伙伴可能更受欢迎——鹏城实验室的研发参与了百度发布的世界上第一个增强百度文心的知识,华为发布的第一个百亿生成和理解中国NLP大模型盘古大模型。

ChatGPT带来了整个人工智能产业的火灾,也集中在大型模型上。高文指出,ChatGPT对整个技术发展产生如此巨大影响的关键是它使用了大型模型。

从人工智能行业来看,如何将培训模型从一个领域转移到另一个领域一直是一个难题,因为不可能依靠大量的人力来标记数据。

国际欧亚科学院院士李世鹏表示,大型模型是解决瓶颈的一种方法。”采用非监督学习所有数据的预培训模式,形成大型模型,然后进行微调,并将其实施到具体的应用场景中。”

“事实上,模型本身非常简单,这是生物学中神经元的连接。但因为它很大,它有一个非常理想的结果。因此,规模是大型模型的核心。”高文说,规模需要从三个方面来结合:巨大的计算能力、大量的数据和足够好的算法。例如,ChatGPT是微软提供的计算能力服务器支持,大约10000个A100芯片。

高文提到,中国在2020年推出的云脑也有这样的算力Ⅱ,相当于4000块A100芯片组合的机器,既可以做理论研究,也可以做核心技术,也可以做一些比较大的应用。

云脑Ⅱ鹏城实验室的人工智能计算能力从100P上升到1000P。例如,100亿张图像或1亿人的DNA可以在24小时内训练、或1000万小时语音,或1万天自动驾驶数据等,是52万台家用电脑计算能力的总和。

“我们现在正在设计下一台3.2万卡的机器,它将比微软更强大,是后者的三倍,以确保持续的人工智能训练提供强有力的计算支持。”高文透露,该机约60亿元,计算能力达到1.6万P。

“两台机器的结合可以解决到目前为止所有大型模型的培训问题。”高文说,以此为核心,中国计算网络的建设正在启动,未来的计算能力将像ChatGPT电力一样即插即用。

为了实现这一目标,鹏城实验室现在正在推广大型开源和底座培训。例如,云脑Ⅱ,鹏城实验室只使用了四分之一,三分之四开放。作为大型设施,它被提供给国内合作伙伴、大学甚至企业。此前,它还帮助百度和华为培训了一系列大型模型。

“鹏城将帮助相关单位培训GPT底座,云脑Ⅱ、云脑Ⅲ它将为大型人工智能模型提供足够的计算能力,我们也希望我们的合作伙伴提供一些数据。”根据这个想法,通过彭城的计算能力和开放渠道的数据结合,培养大型模型基础对全社会开放。

计算能力、算法和数据是人工智能的三大类。这也意味着,即使企业的计算能力不高,他们也可以通过底座完成工作——毕竟,一次ChatGPT培训将花费近1000万美元。对于云脑Ⅱ对于基础设备,也有望减少开发工作量。

腾讯首席科学家张正友指出,由于各种原因,包括隐私和行业数据之间的关系,不可能做一个模型,“如何解决数据之间的障碍,有效整合多个模型,这可能是另一个值得研究和讨论的方向。”

(文章来源:界面新闻)

 
回复列表
默认   热门   正序   倒序

回复:鹏城云脑II连续五次超算打榜获世界第一

Powered by 7.12.10

©2015 - 2025 90Link

90link品牌推广 网站地图

您的IP:10.1.228.218,2025-12-18 13:29:23,Processed in 0.38759 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com