#4740 update mind page

Merged
ychao_1983 merged 3 commits from dev-csh into V20230912 7 months ago
  1. +1
    -1
      web_src/vuepages/pages/model/mind/index.vue

+ 1
- 1
web_src/vuepages/pages/model/mind/index.vue View File

@@ -232,7 +232,7 @@ export default {
tabList: ['PengCheng-Mind 200B', 'PengCheng-Mind 7B'],
tabContent: [{
descr: [
`PengCheng-Mind 200B 脑海大模型是基于Transformer 架构的2010亿参数自回归式语言模型。模型全流程基于“鹏城云脑Ⅱ”(中国算力网枢纽节点)的全自主安全可控国产软硬件平台进行开发和训练,采用MindSpore框架实现在大规模集群上长期稳定的多维分布式并行训练。训练模型保存为3456个切片,容量约7.6TB,推理模型保存为16个切片,容量约375GB。支持4096个token的上下文窗口长度,主要聚焦中文核心能力,兼顾英文和部分多语言能力。当前模型已完成训练1T Tokens数据量,仍在持续训练迭代中。`,
`PengCheng-Mind 200B 脑海大模型是基于Transformer 架构的2010亿参数自回归式语言模型。模型全流程基于中国算力网枢纽节点(鹏城云脑Ⅱ)的全自主安全可控国产软硬件平台进行开发和训练,采用MindSpore框架实现在大规模集群上长期稳定的多维分布式并行训练。训练模型保存为3456个切片,容量约7.6TB,推理模型保存为16个切片,容量约375GB。支持4096个token的上下文窗口长度,主要聚焦中文核心能力,兼顾英文和部分多语言能力。当前模型已完成训练1T Tokens数据量,仍在持续训练迭代中。`,
`大模型的开发充满未知与挑战,随着中国算力网的不断发展壮大,希望通过模型训练全流程开源开放的方式,将鹏城·脑海200B 模型培育为算力网上一个种子应用,吸引产学研界更多人参与到通用大语言模型基座的研究和应用中,一起助力国产智能软硬件生态的发展。`,
],
stage: [


Loading…
Cancel
Save