【AI实战】基于 bert-base-chinese 预训练模型的多标签文本分类模型,BCEWithLogLoss解决样本不均衡问题
- 多标签文本多分类
- bert-base-chinese 预训练模型
-
- bert-base-chinese
- 模型地址
- 模型拉取
- 样本不均衡问题
-
- 解决样本不均衡问题方法
- BCEWithLogLoss解决样本不均衡问题
-
- 1.对样本数量特别少的类别进行过采样
- 2.设置 BCEWithLogLoss 的参数
- 环境搭建
-
- 环境依赖
- 环境配置过程
-
- 1. 拉取镜像
- 2.创建docker容器
- 3.配置依赖库
- 模型
-
- 数据集</