关于删除超过100G的智算集群GPU镜像的公告
Hi~各位小伙伴们,
因启智AI协作平台上提交镜像功能会把调试环境解压的代码和数据集打包到镜像中,使部分智算集群GPU镜像超大,占用大量存储空间,从而导致云脑任务频繁中断。平台今天会发补丁解决将代码和数据集打包到镜像中的问题,另外,计划2023年8月2日17:30开始,将平台上超过100G的智算集群GPU镜像删除,待删除的镜像列表参见下方“附:待删除镜像列表”。
如果您的镜像这次被删除了,请重新提交新的镜像,给您造成不便请见谅。
建议大家提交镜像时,先删除调试时输出的模型文件,不要将输出的模型打包到镜像,以免镜像超大(镜像超过40G会因超大提交失败)。
建议代码和数据集分别解压到 /code 和 /dataset 目录中,这两个目录不会打包到镜像中。
附:待删除镜像列表
- sdxl8, 171.93GB
- sd-lora-l_v14, 167.07GB
- sd-lora_v13, 165.01GB
- sd-lora_12, 160.83GB
- myok, 157.58GB
- glm2-langchain, 157.56GB
- sd-lora_v11, 156.41GB
- sd-lora_v10, 156.40GB
- baichuan-13b, 154.04GB
- baichuan-gradio-stream, 152.00GB
- glm-baichuan-wenda, 151.93GB
- baichuan-wenda_nianbao, 151.78GB
- baichuan-13b_wenda_m3e, 150.93GB
- sdxl6, 150.64GB
- sdxl5, 149.95GB
- baichuan, 149.49GB
- sd-lora_9, 147.85GB
- sdxl4,138.23GB
- baichuan-13b-chat_01-02, 137.79GB
- baichuan11, 128.94GB
- baichuanft0726, 128.92GB
- sdxl3, 128.28GB
- dbgpt0706, 123.22GB
- glm2-6b_wenda0705_dbgpt, 122.89GB
- sd-lora_v8, 122.14GB
- aquilachat_7b, 121.67GB
- glm2-6b_wenda0705, 121.66GB
- glm2-6b_wenda_dbgpt, 121.65GB
- aquilachat-7b_wenda, 121.61GB
- mindglm-privacy-lora, 121.25GB
- mindglm-microsoft-lora, 121.04GB
- mindglm-torch, 110.81GB
- baichuan13bft0729, 109.61GB
- baichuan13b0801, 109.52GB
- aquila, 109.09GB
- caaa, 108.80GB
- sd-lora_v7, 108.71GB
- new, 108.61GB
- mindglm, 105.88GB
- sdxl1, 104.24GB
- langglmfastchat0603, 104.24GB
- sd-lora_v6, 102.96GB
- all-llm, 102.61GB
- glm6b_vicuna13b, 101.77GB
- wenda_glm2-6b_2, 100.73GB
启智AI协作平台
2023年8月2日