Deleting a branch is permanent. It CANNOT be undone. Continue?
frelam/MSAdapter:master0311
into master
1 month ago
Deleting a branch is permanent. It CANNOT be undone. Continue?
Dear OpenI User
Thank you for your continuous support to the Openl Qizhi Community AI Collaboration Platform. In order to protect your usage rights and ensure network security, we updated the Openl Qizhi Community AI Collaboration Platform Usage Agreement in January 2024. The updated agreement specifies that users are prohibited from using intranet penetration tools. After you click "Agree and continue", you can continue to use our services. Thank you for your cooperation and understanding.
For more agreement content, please refer to the《Openl Qizhi Community AI Collaboration Platform Usage Agreement》
, enable_backward 跟在import后面
done
[WIP]adapter to new autogradto adapter to new autograd 1 month ago该数据是根据什么计算出来的?和环境硬件相关?还是业界有统一的默认值?
业界有统一的默认值. pytorch也是这么取默认值。
当前bucket功能还没有起作用, 这个参数没有起到实际作用。
bucket通信需要后面再研究下。
加个注释说明以下,避免重复编译问题,防止后续误删
done
如果测试backward, 用例加上with enable_backward(),如果不涉及 backward图模式是不是可以支持?
优化器里面对图模式做了拦截。 如果用户没有传入grad, 会要求用户在pynative下使用。
这个拦截是否必须?AscendSpeed 给grad赋值的方式,是不是也可以入图?
嗯, 去掉该拦截。
缩进格式
done
mindspore的DynamicLossScaler.scale中的实现, 使用了jit。 但是新微分, 在jit下不能使用。 所以需要重新实现一个不带jit的版本。
报错前移
同pytorch,新增多卡上buffer和 param的同步。 已在resnet50上验证, 最终精度可提高, 90个epoch后接近pytorch精度。
同pytorch,修改成员变量名称
内部接口, grads后移, 通过args做判断。 移动后, 同pytorch定义
用原来grads参数会有什么问题
如果用法是step(optimizer, grad), 没有影响, 能够兼容, 这里会识别有没有传入grad。
如果用法是step(optimizer, grads=grad), 改后会出现错误。
如果不用新微分方案,用户自己挂上grad场景,下面会不会报错?
不会, 这个场景在“test_sgd_step_no_grads”这个用例中测试了
如果之前没有人使用,grads参数可以加在最后更合适
好的。 看了下modelzoo也暂未去适配这个接口 。 连同下面clip_grad_value_也将grads移动到最后面。
确认下是否涉及资料变更?
库上当前没有涉及grads位置的相关资料和代码。
#891 pr屏蔽的用例要打开
有些用例还依赖于更新ci版本。 后面yepeng会统一提pr打开用例。
5ab0904670
.