Are you sure you want to delete this task? Once this task is deleted, it cannot be recovered.
KirigiriSuzumiya e36743f877 | 1 year ago | |
---|---|---|
.. | ||
README.assets | 1 year ago | |
提交结果 | 1 year ago | |
README.md | 1 year ago | |
main.ipynb | 1 year ago | |
sample_submit.csv | 1 year ago | |
test.csv | 1 year ago | |
train.csv | 1 year ago |
aistduio链接(提供免费算力,可一键运行):医疗搜索意图识别挑战赛 - 飞桨AI Studio (baidu.com)
PaddleNLP是一款简单易用且功能强大的自然语言处理开发库。聚合业界优质预训练模型并提供开箱即用的开发体验,覆盖NLP多场景的模型库搭配产业实践范例可满足开发者灵活定制的需求。
文本分类模块链接:PaddleNLP/applications/text_classification at develop · PaddlePaddle/PaddleNLP (github.com)
*以下为PaddleNLP多分类任务官方教程,很通俗,很详细
二分类/多分类任务指南
目录
1. 二分类/多分类简介
本项目提供通用场景下基于预训练模型微调的二分类/多分类端到端应用方案,打通数据标注-模型训练-模型调优-模型压缩-预测部署全流程,有效缩短开发周期,降低AI开发落地门槛。
二分类/多分类数据集的标签集含有两个或两个以上的类别,所有输入句子/文本有且只有一个标签。在文本多分类场景中,我们需要预测输入句子/文本最可能来自
n
个标签类别中的哪一个类别。在本项目中二分类任务被视为多分类任务中标签集包含两个类别的情况,以下统一称为多分类任务。以下图为例,该新闻文本的最可能的标签为娱乐
。多分类任务在商品分类、网页标签、新闻分类、医疗文本分类等各种现实场景中具有广泛的适用性。方案亮点:
- 效果领先🏃: 使用在中文领域内模型效果和模型计算效率有突出效果的ERNIE 3.0 轻量级系列模型作为训练基座,ERNIE 3.0 轻量级系列提供多种尺寸的预训练模型满足不同需求,具有广泛成熟的实践应用性。
- 高效调优✊: 文本分类应用依托TrustAI可信增强能力和数据增强API,提供模型分析模块助力开发者实现模型分析,并提供稀疏数据筛选、脏数据清洗、数据增强等多种解决方案。
- 简单易用👶: 开发者无需机器学习背景知识,仅需提供指定格式的标注分类数据,一行命令即可开启文本分类训练,轻松完成上线部署,不再让技术成为文本分类的门槛。
更多选择:
对于大多数多分类任务,我们推荐使用预训练模型微调作为首选的文本分类方案,多分类项目中还提供 提示学习(小样本)和语义索引的两种全流程文本分类方案满足不同开发者需求,更多技术细节请参见文本分类技术特色介绍。
2. 快速开始
接下来我们将以CBLUE公开数据集KUAKE-QIC任务为示例,演示多分类全流程方案使用。下载数据集:
wget https://paddlenlp.bj.bcebos.com/datasets/KUAKE_QIC.tar.gz tar -zxvf KUAKE_QIC.tar.gz mv KUAKE_QIC data rm KUAKE_QIC.tar.gz
多分类数据标注-模型训练-模型分析-模型压缩-预测部署流程图
2.1 运行环境
- python >= 3.6
- paddlepaddle >= 2.3
- paddlenlp >= 2.4
- scikit-learn >= 1.0.2
安装PaddlePaddle:
环境中paddlepaddle-gpu或paddlepaddle版本应大于或等于2.3, 请参见飞桨快速安装根据自己需求选择合适的PaddlePaddle下载命令。
安装PaddleNLP:
安装PaddleNLP默认开启百度镜像源来加速下载,如果您使用 HTTP 代理可以关闭(删去 -i https://mirror.baidu.com/pypi/simple),更多关于PaddleNLP安装的详细教程请查见PaddleNLP快速安装。
python3 -m pip install --upgrade paddlenlp -i https://mirror.baidu.com/pypi/simple
安装sklearn:
python3 -m pip install scikit-learn==1.0.2
2.2 代码结构
multi_class/ ├── deploy # 部署 │ └── predictor # 离线部署 │ │ ├── infer.py # 测试脚本 │ │ ├── predictor.py 离线部署脚本 │ │ └── README.md # 离线部署使用说明 │ ├── paddle_serving # PaddleServing在线服务化部署 │ │ ├──config.yml # 服务端的配置文件 │ │ ├──rpc_client.py # 客户端预测脚本 │ │ ├──service.py # 服务端的脚本 │ │ └── README.md # 在线服务化部署使用说明 │ └── triton_serving # Triton在线服务化部署 │ ├── README.md # Triton部署使用说明 │ ├── seqcls_grpc_client.py # 客户端预测脚本 │ └── models ├── train.py # 训练评估脚本 ├── predict.py # 预测脚本 ├── export_model.py # 静态图模型导出脚本 ├── utils.py # 工具函数脚本 ├── prune.py # 裁剪脚本 └── README.md # 多分类使用说明
2.3 数据准备
训练需要准备指定格式的本地数据集,如果没有已标注的数据集,可以参考文本分类任务doccano数据标注使用指南进行文本分类数据标注。指定格式本地数据集目录结构:
data/ ├── train.txt # 训练数据集文件 ├── dev.txt # 开发数据集文件 ├── test.txt # 可选,测试数据集文件 ├── label.txt # 分类标签文件 └── data.txt # 待预测数据文件
训练、开发、测试数据集 文件中文本与标签类别名用tab符
'\t'
分隔开。
- train.txt/dev.txt/test.txt 文件格式:
<文本>'\t'<标签> <文本>'\t'<标签> ...
- train.txt/dev.txt/test.txt 文件样例:
25岁已经感觉脸部松弛了怎么办 治疗方案 小孩的眉毛剪了会长吗? 其他 172的身高还能长高吗? 其他 冻疮用三金冻疮酊有效果么? 功效作用 ...
分类标签
label.txt(分类标签文件)记录数据集中所有标签集合,每一行为一个标签名。
- label.txt 文件格式:
<标签> <标签> ...
- label.txt 文件样例:
病情诊断 治疗方案 病因分析 指标解读 就医建议 ...
待预测数据
data.txt(待预测数据文件),需要预测标签的文本数据。
- data.txt 文件格式:
<文本> <文本> ...
- data.txt 文件样例:
黑苦荞茶的功效与作用及食用方法 交界痣会凸起吗 检查是否能怀孕挂什么科 鱼油怎么吃咬破吃还是直接咽下去 ...
2.4 模型训练
2.4.1 预训练模型微调
使用CPU/GPU训练,默认为GPU训练,使用CPU训练只需将设备参数配置改为
--device "cpu"
:python train.py \ --dataset_dir "data" \ --device "gpu" \ --max_seq_length 128 \ --model_name "ernie-3.0-medium-zh" \ --batch_size 32 \ --early_stop \ --epochs 100
如果在CPU环境下训练,可以指定
nproc_per_node
参数进行多核训练:python -m paddle.distributed.launch --nproc_per_node 8 --backend "gloo" train.py \ --dataset_dir "data" \ --device "cpu" \ --max_seq_length 128 \ --model_name "ernie-3.0-medium-zh" \ --batch_size 32 \ --early_stop \ --epochs 100
如果在GPU环境中使用,可以指定
gpus
参数进行单卡/多卡训练。使用多卡训练可以指定多个GPU卡号,例如 --gpus "0,1"。如果设备只有一个GPU卡号默认为0,可使用nvidia-smi
命令查看GPU使用情况:unset CUDA_VISIBLE_DEVICES python -m paddle.distributed.launch --gpus "0" train.py \ --dataset_dir "data" \ --device "gpu" \ --max_seq_length 128 \ --model_name "ernie-3.0-medium-zh" \ --batch_size 32 \ --early_stop \ --epochs 100
可支持配置的参数:
device
: 选用什么设备进行训练,选择cpu、gpu、xpu、npu。如使用gpu训练,可使用参数--gpus指定GPU卡号;默认为"gpu"。dataset_dir
:必须,本地数据集路径,数据集路径中应包含train.txt,dev.txt和label.txt文件;默认为None。save_dir
:保存训练模型的目录;默认保存在当前目录checkpoint文件夹下。max_seq_length
:分词器tokenizer使用的最大序列长度,ERNIE模型最大不能超过2048。请根据文本长度选择,通常推荐128、256或512,若出现显存不足,请适当调低这一参数;默认为128。model_name
:选择预训练模型,可选"ernie-1.0-large-zh-cw","ernie-3.0-xbase-zh", "ernie-3.0-base-zh", "ernie-3.0-medium-zh", "ernie-3.0-micro-zh", "ernie-3.0-mini-zh", "ernie-3.0-nano-zh", "ernie-2.0-base-en", "ernie-2.0-large-en","ernie-m-base","ernie-m-large";默认为"ernie-3.0-medium-zh"。batch_size
:批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数;默认为32。learning_rate
:训练最大学习率;默认为3e-5。epochs
: 训练轮次,使用早停法时可以选择100;默认为10。early_stop
:选择是否使用早停法(EarlyStopping),模型在开发集经过一定epoch后精度表现不再上升,训练终止;默认为False。early_stop_nums
:在设定的早停训练轮次内,模型在开发集上表现不再上升,训练终止;默认为4。logging_steps
: 训练过程中日志打印的间隔steps数,默认5。weight_decay
:控制正则项力度的参数,用于防止过拟合,默认为0.0。warmup
:是否使用学习率warmup策略,使用时应设置适当的训练轮次(epochs);默认为False。warmup_steps
:学习率warmup策略的比例数,如果设为1000,则学习率会在1000steps数从0慢慢增长到learning_rate, 而后再缓慢衰减;默认为0。init_from_ckpt
: 模型初始checkpoint参数地址,默认None。seed
:随机种子,默认为3。train_file
:本地数据集中训练集文件名;默认为"train.txt"。dev_file
:本地数据集中开发集文件名;默认为"dev.txt"。label_file
:本地数据集中标签集文件名;默认为"label.txt"。程序运行时将会自动进行训练,评估。同时训练过程中会自动保存开发集上最佳模型在指定的
save_dir
中,保存模型文件结构如下所示:checkpoint/ ├── model_config.json ├── model_state.pdparams ├── tokenizer_config.json └── vocab.txt
NOTE:
- 如需恢复模型训练,则可以设置
init_from_ckpt
, 如init_from_ckpt=checkpoint/model_state.pdparams
。- 如需训练英文文本分类任务,只需更换预训练模型参数
model_name
。英文训练任务推荐使用"ernie-2.0-base-en"、"ernie-2.0-large-en"。- 英文和中文以外语言的文本分类任务,推荐使用基于96种语言(涵盖法语、日语、韩语、德语、西班牙语等几乎所有常见语言)进行预训练的多语言预训练模型"ernie-m-base"、"ernie-m-large",详情请参见ERNIE-M论文。
2.4.2 训练评估与模型优化
训练后的模型我们可以使用 模型分析模块 对每个类别分别进行评估,并输出预测错误样本(bad case),默认在GPU环境下使用,在CPU环境下修改参数配置为
--device "cpu"
:python analysis/evaluate.py --device "gpu" --max_seq_length 128 --batch_size 32 --bad_case_path "./bad_case.txt" --dataset_dir "data" --params_path "./checkpoint"
输出打印示例:
[2022-08-10 06:28:37,219] [ INFO] - -----Evaluate model------- [2022-08-10 06:28:37,219] [ INFO] - Train dataset size: 6931 [2022-08-10 06:28:37,220] [ INFO] - Dev dataset size: 1955 [2022-08-10 06:28:37,220] [ INFO] - Accuracy in dev dataset: 81.79% [2022-08-10 06:28:37,221] [ INFO] - Top-2 accuracy in dev dataset: 92.48% [2022-08-10 06:28:37,222] [ INFO] - Top-3 accuracy in dev dataset: 97.24% [2022-08-10 06:28:37,222] [ INFO] - Class name: 病情诊断 [2022-08-10 06:28:37,222] [ INFO] - Evaluation examples in train dataset: 877(12.7%) | precision: 97.14 | recall: 96.92 | F1 score 97.03 [2022-08-10 06:28:37,222] [ INFO] - Evaluation examples in dev dataset: 288(14.7%) | precision: 80.32 | recall: 86.46 | F1 score 83.28 [2022-08-10 06:28:37,223] [ INFO] - ---------------------------- [2022-08-10 06:28:37,223] [ INFO] - Class name: 治疗方案 [2022-08-10 06:28:37,223] [ INFO] - Evaluation examples in train dataset: 1750(25.2%) | precision: 96.84 | recall: 99.89 | F1 score 98.34 [2022-08-10 06:28:37,223] [ INFO] - Evaluation examples in dev dataset: 676(34.6%) | precision: 88.46 | recall: 94.08 | F1 score 91.18 ...
预测错误的样本保存在bad_case.txt文件中:
Confidence Prediction Label Text 0.77 注意事项 其他 您好,请问一岁三个月的孩子可以服用复方锌布颗粒吗? 0.94 就医建议 其他 输卵管粘连的基本检查 0.78 病情诊断 其他 经常干呕恶心,这是生病了吗 0.79 后果表述 其他 吃左旋肉碱后的不良反应 ...
模型表现常常受限于数据质量,在analysis模块中我们提供了基于TrustAI的稀疏数据筛选、脏数据清洗、数据增强三种优化方案助力开发者提升模型效果,更多模型评估和优化方案细节详见训练评估与模型优化指南。
2.4.3 模型预测
训练结束后,输入待预测数据(data.txt)和类别标签对照列表(label.txt),使用训练好的模型进行,默认在GPU环境下使用,在CPU环境下修改参数配置为
--device "cpu"
:python predict.py --device "gpu" --max_seq_length 128 --batch_size 32 --dataset_dir "data"
可支持配置的参数:
device
: 选用什么设备进行预测,可选cpu、gpu、xpu、npu;默认为gpu。dataset_dir
:必须,本地数据集路径,数据集路径中应包含data.txt和label.txt文件;默认为None。params_path
:待预测模型的目录;默认为"./checkpoint/"。max_seq_length
:模型使用的最大序列长度,建议与训练时最大序列长度一致, 若出现显存不足,请适当调低这一参数;默认为128。batch_size
:批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数;默认为32。data_file
:本地数据集中未标注待预测数据文件名;默认为"data.txt"。label_file
:本地数据集中标签集文件名;默认为"label.txt"。2.5 模型部署
2.5.1 静态图导出
使用动态图训练结束之后,还可以将动态图参数导出成静态图参数,静态图模型将用于后续的推理部署工作。具体代码见静态图导出脚本,静态图参数保存在
output_path
指定路径中。运行方式:python export_model.py --params_path ./checkpoint/ --output_path ./export
如果使用ERNIE M作为预训练模型,运行方式:
python export_model.py --params_path ./checkpoint/ --output_path ./export --multilingual
可支持配置的参数:
multilingual
:是否为多语言任务(是否使用ERNIE M作为预训练模型);默认为False。params_path
:动态图训练保存的参数路径;默认为"./checkpoint/"。output_path
:静态图图保存的参数路径;默认为"./export"。程序运行时将会自动导出模型到指定的
output_path
中,保存模型文件结构如下所示:export/ ├── float32.pdiparams ├── float32.pdiparams.info └── float32.pdmodel
导出模型之后用于部署,项目提供了基于ONNXRuntime的 离线部署方案 和基于Paddle Serving的 在线服务化部署方案。
2.5.2 模型裁剪
如果有模型部署上线的需求,需要进一步压缩模型体积,可以使用 PaddleNLP 的 压缩API, 一行命令即可启动模型裁剪。
使用裁剪功能需要安装 paddleslim:
pip install paddleslim==2.2.2
开始模型裁剪训练,默认为GPU训练,使用CPU训练只需将设备参数配置改为
--device "cpu"
:python prune.py \ --device "gpu" \ --dataset_dir "data" \ --output_dir "prune" \ --per_device_train_batch_size 32 \ --per_device_eval_batch_size 32 \ --num_train_epochs 10 \ --max_seq_length 128 \ --logging_steps 5 \ --save_steps 100 \ --width_mult_list '3/4' '2/3' '1/2'
可支持配置的参数:
output_dir
:必须,保存模型输出和和中间checkpoint的输出目录;默认为None
。device
: 选用什么设备进行裁剪,选择cpu、gpu。如使用gpu训练,可使用参数--gpus指定GPU卡号。per_device_train_batch_size
:训练集裁剪训练过程批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数;默认为32。per_device_eval_batch_size
:开发集评测过程批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数;默认为32。learning_rate
:训练最大学习率;默认为3e-5。num_train_epochs
: 训练轮次,使用早停法时可以选择100;默认为10。logging_steps
: 训练过程中日志打印的间隔steps数,默认100。save_steps
: 训练过程中保存模型checkpoint的间隔steps数,默认100。seed
:随机种子,默认为3。width_mult_list
:裁剪宽度(multi head)保留的比例列表,表示对self_attention中的q
、k
、v
以及ffn
权重宽度的保留比例,保留比例乘以宽度(multi haed数量)应为整数;默认是None。dataset_dir
:本地数据集路径,需包含train.txt,dev.txt,label.txt;默认为None。max_seq_length
:模型使用的最大序列长度,建议与训练过程保持一致, 若出现显存不足,请适当调低这一参数;默认为128。params_dir
:待预测模型参数文件;默认为"./checkpoint/"。程序运行时将会自动进行训练,评估,测试。同时训练过程中会自动保存开发集上最佳模型在指定的
output_dir
中,保存模型文件结构如下所示:prune/ ├── width_mult_0.75 │ ├── pruned_model.pdiparams │ ├── pruned_model.pdiparams.info │ ├── pruned_model.pdmodel │ ├── model_state.pdparams │ └── model_config.json └── ...
NOTE:
- 目前支持的裁剪策略需要训练,训练时间视下游任务数据量而定,且和微调的训练时间是一个量级。 裁剪类似蒸馏过程,方便起见,可以直接使用微调时的超参。为了进一步提升精度,可以对
per_device_train_batch_size
、learning_rate
、num_train_epochs
、max_seq_length
等超参进行网格搜索(grid search)。- 模型裁剪主要用于推理部署,因此裁剪后的模型都是静态图模型,只可用于推理部署,不能再通过
from_pretrained
导入继续训练。导出模型之后用于部署,项目提供了基于ONNXRuntime的 离线部署方案 和基于Paddle Serving的 在线服务化部署方案。- ERNIE Base、Medium、Mini、Micro、Nano的模型宽度(multi head数量)为12,ERNIE Xbase、Large 模型宽度(multi head数量)为16,保留比例
width_mult
乘以宽度(multi haed数量)应为整数。- 压缩API暂不支持多语言预训练模型ERNIE-M,相关功能正在加紧开发中。
2.5.3 部署方案
- 离线部署搭建请参考离线部署。
- 在线服务化部署搭建请参考 Paddle Serving部署指南 (Paddle Serving支持X86、Arm CPU、NVIDIA GPU、昆仑/昇腾等多种硬件)或Triton部署指南。
2.6 模型效果
PaddleNLP提供ERNIE 3.0 全系列轻量化模型,对于中文训练任务可以根据需求选择不同的预训练模型参数进行训练,我们评测了不同预训练模型在KUAKE-QIC任务的表现,测试配置如下:
数据集:CBLUE数据集中医疗搜索检索词意图分类(KUAKE-QIC)任务开发集
物理机环境
系统: CentOS Linux release 7.7.1908 (Core)
GPU: Tesla V100-SXM2-32GB
CPU: Intel(R) Xeon(R) Gold 6271C CPU @ 2.60GHz
CUDA: 11.2
cuDNN: 8.1.0
Driver Version: 460.27.04
内存: 630 GB
PaddlePaddle 版本:2.3.0
PaddleNLP 版本:2.3.1
性能数据指标:latency。latency 测试方法:固定 batch size 为 32,GPU部署运行时间 total_time,计算 latency = total_time / total_samples
精度评价指标:Accuracy
model_name 模型结构 Accuracy(%) latency(ms) ERNIE 1.0 Large Cw 24-layer, 1024-hidden, 20-heads 82.30 5.62 ERNIE 3.0 Base 12-layer, 768-hidden, 12-heads 82.25 2.07 ERNIE 3.0 Medium 6-layer, 768-hidden, 12-heads 81.79 1.07 ERNIE 3.0 Mini 6-layer, 384-hidden, 12-heads 79.80 0.38 ERNIE 3.0 Micro 4-layer, 384-hidden, 12-heads 79.80 0.26 ERNIE 3.0 Nano 4-layer, 312-hidden, 12-heads 78.57 0.22 ERNIE 3.0 Medium + 裁剪(保留比例3/4) 6-layer, 768-hidden, 9-heads 81.79 0.83 ERNIE 3.0 Medium + 裁剪(保留比例2/3) 6-layer, 768-hidden, 8-heads 81.07 0.79 ERNIE 3.0 Medium + 裁剪(保留比例1/2) 6-layer, 768-hidden, 6-heads 81.07 0.64
零算法基础也能在数据竞赛中跑个好的名次!使用paddle套件中的先进学术模型完成各比赛中主流任务的baseline提交。
Text CSV Jupyter Notebook Python
Dear OpenI User
Thank you for your continuous support to the Openl Qizhi Community AI Collaboration Platform. In order to protect your usage rights and ensure network security, we updated the Openl Qizhi Community AI Collaboration Platform Usage Agreement in January 2024. The updated agreement specifies that users are prohibited from using intranet penetration tools. After you click "Agree and continue", you can continue to use our services. Thank you for your cooperation and understanding.
For more agreement content, please refer to the《Openl Qizhi Community AI Collaboration Platform Usage Agreement》