From eccbd86626ad05f1984974d8438b014b6c577fc6 Mon Sep 17 00:00:00 2001 From: chenshihai Date: Sat, 23 Sep 2023 12:36:56 +0800 Subject: [PATCH] update mind page --- web_src/vuepages/pages/model/mind/index.vue | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/web_src/vuepages/pages/model/mind/index.vue b/web_src/vuepages/pages/model/mind/index.vue index ed0df16ec8..f10b54d06d 100644 --- a/web_src/vuepages/pages/model/mind/index.vue +++ b/web_src/vuepages/pages/model/mind/index.vue @@ -232,7 +232,7 @@ export default { tabList: ['PengCheng-Mind 200B', 'PengCheng-Mind 7B'], tabContent: [{ descr: [ - `PengCheng-Mind 200B 脑海大模型是基于Transformer 架构的2010亿参数自回归式语言模型。模型全流程基于“鹏城云脑Ⅱ”(中国算力网枢纽节点)的全自主安全可控国产软硬件平台进行开发和训练,采用MindSpore框架实现在大规模集群上长期稳定的多维分布式并行训练。训练模型保存为3456个切片,容量约7.6TB,推理模型保存为16个切片,容量约375GB。支持4096个token的上下文窗口长度,主要聚焦中文核心能力,兼顾英文和部分多语言能力。当前模型已完成训练1T Tokens数据量,仍在持续训练迭代中。`, + `PengCheng-Mind 200B 脑海大模型是基于Transformer 架构的2010亿参数自回归式语言模型。模型全流程基于中国算力网枢纽节点(鹏城云脑Ⅱ)的全自主安全可控国产软硬件平台进行开发和训练,采用MindSpore框架实现在大规模集群上长期稳定的多维分布式并行训练。训练模型保存为3456个切片,容量约7.6TB,推理模型保存为16个切片,容量约375GB。支持4096个token的上下文窗口长度,主要聚焦中文核心能力,兼顾英文和部分多语言能力。当前模型已完成训练1T Tokens数据量,仍在持续训练迭代中。`, `大模型的开发充满未知与挑战,随着中国算力网的不断发展壮大,希望通过模型训练全流程开源开放的方式,将鹏城·脑海200B 模型培育为算力网上一个种子应用,吸引产学研界更多人参与到通用大语言模型基座的研究和应用中,一起助力国产智能软硬件生态的发展。`, ], stage: [ -- 2.34.1