5月22日,鹏城实验室在2023年大湾区科学论坛上发布了鹏城星云系统和星方数据——这是一个科研云平台,支持国际科学计划和工程需求,重点关注天文学和遥感学科。
鹏城星云系统依托“鹏城云脑”Ⅱ而构建。鹏城云脑Ⅱ据中国工程院院士、鹏城实验室主任高文介绍,是国内首个独立的E级AI计算平台,是“1018立方米、每秒16位复点计算机平台”。目前,云脑Ⅱ连续五次在超算榜上获得世界第一名。
(资料图)
彭城实验室成立于2018年,位于深圳,主要从事网络空间信息研究,定位为省级实验室;2022年被列入国家实验室。
相比之下,鹏城实验室的合作伙伴可能更受欢迎——鹏城实验室的研发参与了百度发布的世界上第一个增强百度文心的知识,华为发布的第一个百亿生成和理解中国NLP大模型盘古大模型。
ChatGPT带来了整个人工智能产业的火灾,也集中在大型模型上。高文指出,ChatGPT对整个技术发展产生如此巨大影响的关键是它使用了大型模型。
从人工智能行业来看,如何将培训模型从一个领域转移到另一个领域一直是一个难题,因为不可能依靠大量的人力来标记数据。
国际欧亚科学院院士李世鹏表示,大型模型是解决瓶颈的一种方法。”采用非监督学习所有数据的预培训模式,形成大型模型,然后进行微调,并将其实施到具体的应用场景中。”
“事实上,模型本身非常简单,这是生物学中神经元的连接。但因为它很大,它有一个非常理想的结果。因此,规模是大型模型的核心。”高文说,规模需要从三个方面来结合:巨大的计算能力、大量的数据和足够好的算法。例如,ChatGPT是微软提供的计算能力服务器支持,大约10000个A100芯片。
高文提到,中国在2020年推出的云脑也有这样的算力Ⅱ,相当于4000块A100芯片组合的机器,既可以做理论研究,也可以做核心技术,也可以做一些比较大的应用。
云脑Ⅱ鹏城实验室的人工智能计算能力从100P上升到1000P。例如,100亿张图像或1亿人的DNA可以在24小时内训练、或1000万小时语音,或1万天自动驾驶数据等,是52万台家用电脑计算能力的总和。
“我们现在正在设计下一台3.2万卡的机器,它将比微软更强大,是后者的三倍,以确保持续的人工智能训练提供强有力的计算支持。”高文透露,该机约60亿元,计算能力达到1.6万P。
“两台机器的结合可以解决到目前为止所有大型模型的培训问题。”高文说,以此为核心,中国计算网络的建设正在启动,未来的计算能力将像ChatGPT电力一样即插即用。
为了实现这一目标,鹏城实验室现在正在推广大型开源和底座培训。例如,云脑Ⅱ,鹏城实验室只使用了四分之一,三分之四开放。作为大型设施,它被提供给国内合作伙伴、大学甚至企业。此前,它还帮助百度和华为培训了一系列大型模型。
“鹏城将帮助相关单位培训GPT底座,云脑Ⅱ、云脑Ⅲ它将为大型人工智能模型提供足够的计算能力,我们也希望我们的合作伙伴提供一些数据。”根据这个想法,通过彭城的计算能力和开放渠道的数据结合,培养大型模型基础对全社会开放。
计算能力、算法和数据是人工智能的三大类。这也意味着,即使企业的计算能力不高,他们也可以通过底座完成工作——毕竟,一次ChatGPT培训将花费近1000万美元。对于云脑Ⅱ对于基础设备,也有望减少开发工作量。
腾讯首席科学家张正友指出,由于各种原因,包括隐私和行业数据之间的关系,不可能做一个模型,“如何解决数据之间的障碍,有效整合多个模型,这可能是另一个值得研究和讨论的方向。”
(文章来源:界面新闻)
微信扫码
QQ扫码
您的IP:10.1.228.218,2025-12-18 13:29:23,Processed in 0.38759 second(s).