Skip to content

Files

Latest commit

d2c8174 · Feb 24, 2023

History

History
This branch is 2363 commits behind PaddlePaddle/PaddleNLP:develop.

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
Feb 24, 2023
Sep 22, 2022
Feb 24, 2023
Oct 25, 2022
Feb 20, 2023
Feb 24, 2023
Feb 24, 2023
Dec 5, 2022
Dec 5, 2022
Feb 24, 2023
Feb 20, 2023
Dec 5, 2022
Sep 5, 2022
Dec 5, 2022
Feb 24, 2023

基于检索的文本分类方法

目录

1.基于语义索引的分类任务介绍

以前的分类任务中,标签信息作为无实际意义,独立存在的one-hot编码形式存在,这种做法会潜在的丢失标签的语义信息,本方案把文本分类任务中的标签信息转换成含有语义信息的语义向量,将文本分类任务转换成向量检索和匹配的任务。这样做的好处是对于一些类别标签不是很固定的场景,或者需要经常有一些新增类别的需求的情况非常合适。另外,对于一些新的相关的分类任务,这种方法也不需要模型重新学习或者设计一种新的模型结构来适应新的任务。总的来说,这种基于检索的文本分类方法能够有很好的拓展性,能够利用标签里面包含的语义信息,不需要重新进行学习。这种方法可以应用到相似标签推荐,文本标签标注,金融风险事件分类,政务信访分类等领域。

本方案是基于语义索引模型的分类,语义索引模型的目标是:给定输入文本,模型可以从海量候选召回库中快速、准确地召回一批语义相关文本。基于语义索引的分类方法有两种,第一种方法是直接把标签变成召回库,即把输入文本和标签的文本进行匹配,第二种是利用召回的文本带有类别标签,把召回文本的类别标签作为给定输入文本的类别。本方案使用双塔模型,训练阶段引入In-batch Negatives 策略,使用hnswlib建立索引库,并把标签作为召回库,进行召回测试。最后利用召回的结果使用 Accuracy 指标来评估语义索引模型的分类的效果。

2. 代码结构说明

|—— data.py # 数据读取、数据转换等预处理逻辑
|—— base_model.py # 语义索引模型基类
|—— train.py # In-batch Negatives 策略的训练主脚本
|—— model.py # In-batch Negatives 策略核心网络结构

|—— recall.py # 基于训练好的语义索引模型,从召回库中召回给定文本的相似文本
|—— evaluate.py # 根据召回结果和评估集计算评估指标
|—— predict.py # 给定输入文件,计算文本 pair 的相似度
|—— export_model.py # 动态图转换成静态图
|—— export_to_serving.py # 静态图转 Serving
|—— scripts
    |—— export_model.sh  # 动态图转换成静态图脚本
    |—— predict.sh  # 预测 bash 版本
    |—— evaluate.sh # 评估 bash 版本
    |—— run_build_index.sh # 构建索引 bash 版本
    |—— train.sh  # 训练 bash 版本
    |—— export_to_serving.sh  # Paddle Inference 转 Serving 的 bash 脚本
    |—— run.sh # 构建Milvus向量的 bash 版本
|—— utils
    ├── config.py # Milvus 的配置文件
    ├── feature_extract.py # 向量抽取文件
    ├── milvus_util.py # Milvus 的配置文件
|—— deploy
    |—— python
        |—— predict.py # PaddleInference
        |—— deploy.sh # Paddle Inference 部署脚本
        |—— rpc_client.py # Paddle Serving 的 Client 端
        |—— web_service.py # Paddle Serving 的 Serving 端
        |—— config_nlp.yml # Paddle Serving 的配置文件

3. 环境准备

推荐使用GPU进行训练,在预测阶段使用CPU或者GPU均可。

环境依赖

  • python >= 3.6.2
  • paddlepaddle >= 2.3.1
  • paddlenlp >= 2.3.4
  • hnswlib >= 0.5.2
  • visualdl >= 2.2.2
pip install -r requirements.txt

4. 数据准备

训练需要准备指定格式的本地数据集,如果没有已标注的数据集,可以参考文本分类任务doccano数据标注使用指南进行文本分类数据标注。

指定格式本地数据集目录结构

├── data # 数据集目录
    ├── label.txt # 标签集
    ├── dev.txt # 验证集
    ├── train.txt  # 训练集

训练、开发、测试数据集

train.txt(训练数据集文件), dev.txt(开发数据集文件),test.txt(可选,测试数据集文件),文件中文本与标签类别名用tab符'\t'分隔开。训练集指用于训练模型的数据;开发集指用于评测模型表现的数据,可以根据模型在开发集上的精度调整训练参数和模型;测试集用于测试模型表现,没有测试集时可以使用开发集代替。

  • train.txt/dev.txt/test.txt 文件格式:
<文本>'\t'<标签>
<文本>'\t'<标签>
...
  • train.txt/dev.txt/test.txt 文件样例:
青岛有什么好一点的国际青旅推荐?离海近一点 外国人多一点 氛围好点的	青岛
谈谈去西安旅游,哪些地方让你觉得不虚此行?	旅行
上古卷轴5有哪些奇葩玩法?	单机游戏
...

分类标签

label.txt(分类标签文件)记录数据集中所有标签集合,每一行为一个标签名。

  • label.txt 文件格式:
<标签>
<标签>
...
  • label.txt 文件样例:
上海
恋爱
动画电影(Animated film)
狮
生活
汽车
...

5. 模型训练

我们使用百科知识问答的数据来构建训练集,开发集。

训练集(train.txt)开发集(dev.txt) 格式一致,训练集61510条,开发集6835条,每行由文本的标题,内容和类别标签组成,以tab符分割,第一列是问题的标题和描述拼接,剩下的列是问题的类别,另外,标签有5981个。 召回库(label.txt) 召回库的构建有2种方式,第一种是把所有的类别标签当成召回库,第二种是把训练集当成召回集合,我们以第一种为例。

数据集选择的是百科问答数据集的一个子集,问答数据集详情请参考nlp_chinese_corpus

wget https://paddlenlp.bj.bcebos.com/applications/webtext2019zh_qa.zip
unzip  webtext2019zh_qa.zip

单机单卡训练/单机多卡训练

这里采用单机多卡方式进行训练,通过如下命令,指定 GPU 0,1 卡;如果采用单机单卡训练,只需要把--gpus参数设置成单卡的卡号即可。

如果使用CPU进行训练,则需要吧--gpus参数去除,然后吧device设置成cpu即可,详细请参考train.sh文件的训练设置

然后运行下面的命令使用GPU训练,得到语义索引模型:

root_path=inbatch
data_path=data
python -u -m paddle.distributed.launch --gpus "0,1" \
    train.py \
    --device gpu \
    --save_dir ./checkpoints/${root_path} \
    --batch_size 24 \
    --learning_rate 5E-5 \
    --epochs 100 \
    --output_emb_size 0 \
    --save_steps 50 \
    --max_seq_length 384 \
    --warmup_proportion 0.0 \
    --margin 0.2 \
    --recall_result_dir "recall_result_dir" \
    --recall_result_file "recall_result.txt" \
    --train_set_file ${data_path}/train.txt \
    --corpus_file ${data_path}/label.txt   \
    --similar_text_pair_file ${data_path}/dev.txt \
    --evaluate True

参数含义说明

  • device: 使用 cpu/gpu 进行训练
  • save_dir: 模型存储路径
  • batch_size: 训练的batch size的大小
  • learning_rate: 训练的学习率的大小
  • epochs: 训练的epoch数
  • output_emb_size: Transformer 顶层输出的文本向量维度
  • save_steps: 模型存储 checkpoint 的间隔 steps 个数
  • max_seq_length: 输入序列的最大长度
  • margin: 正样本相似度与负样本之间的目标 Gap
  • train_set_file: 训练集文件
  • evaluate: 是否开启边训练边评估模型训练效果,默认开启
  • recall_result_dir: 召回结果存储目录
  • recall_result_file: 召回结果的文件名
  • hnsw_m: hnsw 算法相关参数,保持默认即可
  • hnsw_ef: hnsw 算法相关参数,保持默认即可
  • recall_num: 对 1 个文本召回的相似文本数量
  • similar_text_pair: 由相似文本对构成的评估集
  • corpus_file: 召回库数据 corpus_file

也可以使用bash脚本:

sh scripts/train.sh

6. 模型预测

我们可以基于语义索引模型计算文本和标签的语义相似度。

开始预测

加载训练的语义索引模型,然后计算文本和标签的语义相似度:

root_dir="checkpoints/inbatch/model_best"
python -u -m paddle.distributed.launch --gpus "0" \
    predict.py \
    --device gpu \
    --params_path "${root_dir}/model_state.pdparams" \
    --model_name_or_path rocketqa-zh-dureader-query-encoder \
    --output_emb_size 0 \
    --batch_size 128 \
    --max_seq_length 384 \
    --text_pair_file "data/dev.txt"

参数含义说明

  • device: 使用 cpu/gpu 进行训练
  • params_path: 预训练模型的参数文件名
  • output_emb_size: Transformer 顶层输出的文本向量维度
  • model_name_or_path: 预训练模型,用于模型和Tokenizer的参数初始化。
  • text_pair_file: 由文本 Pair 构成的待预测数据集

也可以运行下面的bash脚本:

sh scripts/predict.sh

predict.sh文件包含了cpu和gpu运行的脚本,默认是gpu运行的脚本

产出如下结果

0.8841502070426941
0.7834227681159973
0.04591505229473114
0.15116563439369202
......

7. 模型部署

动转静导出

首先把动态图模型转换为静态图:

python export_model.py \
                 --params_path checkpoints/inbatch/model_best/model_state.pdparams \
                 --model_name_or_path rocketqa-zh-dureader-query-encoder \
                 --output_path=./output

也可以运行下面的bash脚本:

sh scripts/export_model.sh

Paddle Inference预测

预测既可以抽取向量也可以计算两个文本的相似度。

修改deploy/python/predict.py中的id2corpus和corpus_list的样本:

# 抽取向量
id2corpus = {
        0: {
            "sentence":
            "青岛有什么好一点的国际青旅推荐?离海近一点 外国人多一点 氛围好点的"
        }
    }
# 计算文本和类别的相似度
corpus_list = [{
        "sentence":
        "青岛有什么好一点的国际青旅推荐?离海近一点 外国人多一点 氛围好点的?",
        'label': '青岛'
    }, {
        "sentence":
        "青岛有什么好一点的国际青旅推荐?离海近一点 外国人多一点 氛围好点的",
        'label': '单机游戏'
    }]

然后使用PaddleInference

python deploy/python/predict.py --model_dir=./output

也可以运行下面的bash脚本:

sh deploy.sh

最终输出的是256维度的特征向量和句子对的预测概率:

(1, 768)
(1, 768)
[[-0.02010613  0.01188739  0.02152571  0.055634   -0.05920463 -0.06134057
   0.05532542 -0.01561351  0.02738068  0.05340409  0.06015684 -0.01133287
   ....

[0.6114088296890259, 0.08313259482383728]

向量引擎

模型准备结束以后,开始搭建 Milvus 的向量检索引擎,用于文本语义向量的快速检索,本项目使用Milvus开源工具进行向量检索,Milvus 的搭建教程请参考官方教程 Milvus官方安装教程本案例使用的是 Milvus 的1.1.1 CPU版本,建议使用官方的 Docker 安装方式,简单快捷。

Milvus 搭建完系统以后就可以插入和检索向量了,首先生成 embedding 向量,每个样本生成768维度的向量:

CUDA_VISIBLE_DEVICES=0 python utils/feature_extract.py \
        --data_name label \
        --model_dir ./output \
        --output_dir data \
        --corpus_file "./data/label.txt"

其中 output 目录下存放的是召回的 Paddle Inference 静态图模型。

然后向搭建好的 Milvus 系统插入向量:

python utils/vector_insert.py \
                    --vector_path ./data/label_embedding.npy

也可以直接运行:

sh scripts/run.sh

Paddle Serving部署

Paddle Serving 的详细文档请参考 Pipeline_DesignServing_Design,首先把静态图模型转换成Serving的格式:

python export_to_serving.py \
    --dirname "output" \
    --model_filename "inference.get_pooled_embedding.pdmodel" \
    --params_filename "inference.get_pooled_embedding.pdiparams" \
    --server_path "./serving_server" \
    --client_path "./serving_client" \
    --fetch_alias_names "output_embedding"

参数含义说明

  • dirname: 需要转换的模型文件存储路径,Program 结构文件和参数文件均保存在此目录。
  • model_filename: 存储需要转换的模型 Inference Program 结构的文件名称。如果设置为 None ,则使用 __model__ 作为默认的文件名
  • params_filename: 存储需要转换的模型所有参数的文件名称。当且仅当所有模型参数被保>存在一个单独的二进制文件中,它才需要被指定。如果模型参数是存储在各自分离的文件中,设置它的值为 None
  • server_path: 转换后的模型文件和配置文件的存储路径。默认值为 serving_server
  • client_path: 转换后的客户端配置文件存储路径。默认值为 serving_client
  • fetch_alias_names: 模型输出的别名设置,比如输入的 input_ids 等,都可以指定成其他名字,默认不指定
  • feed_alias_names: 模型输入的别名设置,比如输出 pooled_out 等,都可以重新指定成其他模型,默认不指定

也可以运行下面的 bash 脚本:

sh scripts/export_to_serving.sh

Paddle Serving的部署有两种方式,第一种方式是Pipeline的方式,第二种是C++的方式,下面分别介绍这两种方式的用法:

Pipeline方式

启动 Pipeline Server:

cd deploy/python/
python web_service.py

启动客户端调用 Server, 使用 POST的方式:

向服务端发送 POST 请求示例:

curl -X POST -k http://localhost:8090/ernie/prediction -d '{"key": ["0"], "value": ["{\"sentence\": \"青岛有什么好一点的国际青旅推荐?离海近一点 外国人多一点 氛围好点的\"}"]}'

也可以使用 rpc的方式: 首先修改rpc_client.py中需要预测的样本:

list_data = [{
    "sentence": "青岛有什么好一点的国际青旅推荐?离海近一点 外国人多一点 氛围好点的"
}]

然后运行:

python rpc_client.py

模型的输出为:

PipelineClient::predict pack_data time:1658988633.3673246
PipelineClient::predict before time:1658988633.3678396
time to cost :0.014188766479492188 seconds
['output_embedding']
(1, 768)
[[-0.06491912 -0.0133915   0.00937684  0.01285653 -0.02468005  0.03528611
   0.0623698  -0.06062918  0.02238894 -0.05348937  0.02161925  0.04480227
   ......

可以看到客户端发送了1条文本,返回这个 embedding 向量

8. 分类流程

基于检索的分类系统使用了Client Server的模式,即抽取向量的模型部署在服务端,然后启动客户端(Client)端去访问。

python run_system.py

代码内置的测试用例为:

list_data = [{"sentence": "谈谈去西安旅游,哪些地方让你觉得不虚此行?"}]

会输出如下的结果:

......
PipelineClient::predict pack_data time:1658988661.507715
PipelineClient::predict before time:1658988661.5081818
Extract feature time to cost :0.02322244644165039 seconds
Search milvus time cost is 0.06801486015319824 seconds
{'sentence': '谈谈去西安旅游,哪些地方让你觉得不虚此行?'} 旅行 0.3969537019729614
{'sentence': '谈谈去西安旅游,哪些地方让你觉得不虚此行?'} 西安 0.7750667333602905
{'sentence': '谈谈去西安旅游,哪些地方让你觉得不虚此行?'} 陕西 0.8064634799957275
{'sentence': '谈谈去西安旅游,哪些地方让你觉得不虚此行?'} 火车上 0.8384211659431458
{'sentence': '谈谈去西安旅游,哪些地方让你觉得不虚此行?'} 山西 0.9251932501792908
.....

输出的结果包括特征提取和检索的时间,还包含检索出来文本和对应的标签,通过设定阈值等方式可以得到最终的标签。

Reference

[1] Vladimir Karpukhin, Barlas Oğuz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, Wen-tau Yih, Dense Passage Retrieval for Open-Domain Question Answering, Preprint 2020.