Are you sure you want to delete this task? Once this task is deleted, it cannot be recovered.
WEN Hao 12033057bd | 4 months ago | |
---|---|---|
.github/workflows | 7 months ago | |
audio | 7 months ago | |
docs | 4 months ago | |
image | 7 months ago | |
text | 4 months ago | |
.dockerignore | 1 year ago | |
.gitignore | 5 months ago | |
.gitmodules | 1 year ago | |
.pre-commit-config.yaml | 7 months ago | |
Dockerfile | 1 year ago | |
README.md | 1 year ago | |
apt.Dockerfile | 1 year ago | |
license | 1 year ago | |
requirements-apt.txt | 9 months ago | |
text_demo.ipynb | 1 year ago |
本项目为AI-Testing开源项目的算法内核,是一个用于 计算机视觉、文本自然语言处理、音频处理 等多个领域的对抗攻击全流程评测算法学习研究的 Python库。其主要研究内容为集成对抗攻击和噪声攻击相关的攻击算法、评测算法、加固防御算法。可灵活测试数据集质量、算法训练、评估和部署等算法全生命周期各项指标。
教程:如果您正在寻找教程,请查看image
, text
, audio
路径下相关 README 文件
文档:我们提供了完备的API说明文档以及教程:说明文档链接
Python环境要求
Python 3.6.5及以上
以下,我们以本项目图像模块为例进行进一步介绍。
克隆本项目并安装依赖:
git clone https://github.com/ydc123/AI-Testing.git
cd AI-Testing/image
pip install requirements.txt
或者从启智社区上克隆本项目
git clone https://openi.pcl.ac.cn/Numbda/AI-Testing.git
cd AI-Testing/image
pip install requirements.txt
本开源项目的image/Datasets/
中提供了Cifar10
和ILSVR2012-ImageNet
数据集。用户可使用上述数据集,或按照完整API文档,进行数据集扩展。
用户需要使用所选数据集的训练集,执行模型训练过程。由于空间所限,本项目中统一不提供数据集对应的训练集,仅给出测试集以供测试。
使用cd image/test
进入test目录。重明开源项目提供了几个示例的算法文件。如测试在FGSM攻击算法下,Resnet20模型的鲁棒性结果:
# 使用接口文件默认参数
python testimport.py
# 自定义参数调用
python testimport.py --attack_method "FGSM" --evaluation_method "ALDp" --model_dir ""
上述命令均将测试ResNet20模型,在FGSM算法攻击下,ALDp指标的评测结果变化。并将结果存在image/test/temp
。
有关更多示例和用法(例如,如何扩展模型或算法,如何传入参数),请浏览完备API接口文档。
本项目还提供了Docker镜像的使用方式,地址如下
如果你有任何疑问或需要帮助,请随时联系我们。
AI-Testing基于MIT协议, 关于协议的更多信息,请参看 LICENSE 文件。
本项目为AI-Testing开源项目的算法内核,是一个用于 计算机视觉、文本自然语言处理、音频处理 等多个领域的对抗攻击全流程评测算法学习研究的 Python库。
https://numbda.cs.tsinghua.edu.cn/AI-Testing/
Python Pickle Text Dockerfile Jupyter Notebook other
Dear OpenI User
Thank you for your continuous support to the Openl Qizhi Community AI Collaboration Platform. In order to protect your usage rights and ensure network security, we updated the Openl Qizhi Community AI Collaboration Platform Usage Agreement in January 2024. The updated agreement specifies that users are prohibited from using intranet penetration tools. After you click "Agree and continue", you can continue to use our services. Thank you for your cooperation and understanding.
For more agreement content, please refer to the《Openl Qizhi Community AI Collaboration Platform Usage Agreement》