# TAAC-2021-神奈川冲浪里
## 目录结构
```
├── ckpts
│ └── ckpt # 保存训练好的模型checkpoint
├── config
├── inference.py # 模型推理
├── inference.sh
├── __init__.py
├── pre # 预处理文件,包含视频抽帧,特征提取
│ ├── extract_features.py # 抽帧后的特征提取
│ ├── extract_video_frame.py # 视频抽帧
│ ├── vision-transformer-pytorch # VIT预训练模型文件,通过VIT的github仓库拉取
│ └── VIT_L_train_5k_features #通过vit提取好的特征存放目录
├── pretrained_models # 所使用的几个预训练模型的参数,保存格式为.bin或者.pt
│ ├── bert_base_chinese
│ ├── UniVL_Pretrained_models
│ └── VIT-pretrained_models
├── pretrain.py #二次预训练代码
├── pretrain.sh
├── __pycache__
│ └── util.cpython-37.pyc
├── requirements.txt
├── src
│ ├── dataloaders # 比赛数据集的dataloader
│ ├── modesl # 模型文件
│ ├── __pycache__
│ └── utils
├── train.py 训练流程代码
├── train.sh
└── util.py
```
## models模块说明
1.其中modeling文件为本次比赛模型2.model_audio、model_bert、model_visual为其中模态内特征交互和跨模态特征交互子模块,源码参考hugging-face bert源码 3.optimization为Bert-Adam优化器函数 4.until_module为预训练模型,为模型父类。
## 环境配置
运行
```
bash init.sh
```
然后由于特征文件是lfs上传的所以还需要下载lfs,输入以下指令下载lfs:
```
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash
sudo apt-get install git-lfs
```
然后输入
```
git lfs pull
```
之后才能获得正常特征文件
## 训练流程
### STEP1
根据网盘链接分别下载本次训练所需要的预训练模型
VIT [链接](https://pretrained-models-1305291113.cos.ap-nanjing.myqcloud.com/imagenet21k%2Bimagenet2012_ViT-L_16.pth)
pretrain_model[链接](https://pretrained-models-1305291113.cos.ap-nanjing.myqcloud.com/pytorch_model.bin.pretrain)
接着创立两个文件夹,用于存放预训练模型:
```
mkdir taac-2021-S/pretrained_models/UniVL_Pretrained_models
mkdir mkdir taac-2021-S/pretrained_models/VIT_pretrained_models
```
将预训练模型移动到对应文件夹中
### STEP2
首先,运行以下脚本文件
```
bash train.sh
```
该脚本文件路径需要修改的地方为:ROOT为根目录,默认为:/home/tione/notebook
1.VIDEO_PATH:视频所在目录,默认为:algo-2021/dataset/videos/video_5k/train_5k
2.LABEL_PATH:标签id所在文件,默认为:algo-2021/dataset/label_id.txt
3.LABEL_INFO_PATH:训练集的真实标签,默认为:algo-2021/dataset/tagging/GroundTruth/tagging_info.txt
4.VIDEO_FEATURES_PATH:训练集视频特征所在目录,默认为:taac-2021-神奈川冲浪里/pre/5.VIT_L_train_5k_features
5.AUDIO_FEATURES_PATH:训练集音频特征所在目录,默认为:algo-2021/dataset/tagging/tagging_dataset_train_5k/audio_npy/Vggish/tagging
6.VIDEO_CAPTION_PATH:训练集视频文本描述:默认为:algo-2021/dataset/taggingtagging_dataset_train_5k/text_txt/tagging
INIT_MODEL:训练所加载的预训练模型,默认为:taac-2021-神奈川冲浪里/pretrained_models/UniVL_Pretrained_models/pytorch_model.bin.pretrain
预计训练时间为:3h
## 测试流程
### STEP1
首先进入pre目录,分别创建两个文件夹
```
mkdir taac-2021-S/pre/test_2nd_5k_384_frame_npy
mkdir taac-2021-S/pre/VTI_L_test_5k_2nd_features
```
运行
```
bash extract_frame.sh
```
其中VIDEO_PATH为测试集5k视频路径,默认为:algo-2021/dataset/videos/test_5k_2nd
用来抽取视频帧数,预计抽取时间为:4h
### STEP2
接着继续在该目录下运行
```
bash extract_features.sh
```
用来对视频特征进行抽取,
预计特征抽取时间为:4h
### STEP3
最后在主目录下面运行
```
inference.sh
```
其中该脚本中的MODEL_FILE为训练后的模型所在目录,默认为:taac-2021-神奈川冲浪里/ckpts/ckpt
VIDEO_FEATURES_PATH为刚刚对视频特征提取后保存的目录,默认为:taac-2021-神奈川冲浪里/pre/VTI_L_test_5k_2nd_features
测试时间:预计半小时
最终输入文件位于主目录下:test.json中
## 补充说明
比赛所使用的预训练模型分别为VIT, UniVL, bert-baee-chinese
预训练模型所在github链接为:
VIT [github](https://github.com/asyml/vision-transformer-pytorch)
UniVL [github](https://github.com/microsoft/UniVL)
bert-base-chinese [github](https://github.com/huggingface/transformers)
注意,有时候代码可能因为http connection请求出错导致中断,此时需要重新运行一次即可
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
【资源说明】 1、该资源包括项目的全部源码,下载可以直接使用! 2、本项目适合作为计算机、数学、电子信息等专业的竞赛项目学习资料,作为参考学习借鉴。 3、本资源作为“参考资料”如果需要实现其他功能,需要能看懂代码,并且热爱钻研,自行调试。 2021腾讯广告算法大赛赛道二参赛源码+学习说明(获奖排名第8).zip
资源推荐
资源详情
资源评论
收起资源包目录
2021腾讯广告算法大赛赛道二参赛源码+学习说明(获奖排名第8).zip (50个子文件)
code_20105
__init__.py 0B
pretrained_models
bert_base_chinese
42d4a64dda3243ffeca7ec268d5544122e67d9d06b971608796b483925716512.02ac7d664cff08d793eb00d6aac1d04368a1322435e5fe0a27c70b0b3a85327f.json 138B
ckpts
ckpt
tagging10_fold
log.txt 111KB
log.txt 68KB
pretrain.sh 1KB
util.py 3KB
src
utils
pr_calculator_per_tag.py 2KB
tagging_eval.py 12KB
train_utlis.py 21KB
__pycache__
tagging_eval.cpython-36.pyc 11KB
tagging_eval.cpython-38.pyc 11KB
tagging_eval.cpython-37.pyc 11KB
.ipynb_checkpoints
tagging_eval-checkpoint.py 12KB
pr_calculator.py 2KB
average_precision_calculator.py 10KB
mean_average_precision_calculator.py 4KB
dataloaders
__init__.py 0B
pretrain_dataloader.py 9KB
tagging_dataloader.py 16KB
README.md 2B
models
__init__.py 0B
loss.py 2KB
decoder-base
decoder_config.json 352B
until_module.py 12KB
file_utils.py 8KB
audio-base
audio_config.json 311B
modeling.py 24KB
optimization.py 7KB
module_cross.py 18KB
until_config.py 5KB
module_bert.py 21KB
module_audio.py 19KB
cross-base
cross_config.json 297B
module_decoder.py 18KB
tokenization.py 16KB
visual-base
visual_config.json 299B
bert-base
bert_config.json 288B
module_visual.py 20KB
pretrain.py 18KB
inference.py 8KB
inference.sh 891B
pre
extract_features.py 3KB
extract_video_frame.py 2KB
extract_features.sh 230B
VIT
extract_frame.sh 215B
requirements.txt 30B
train.sh 1KB
.gitignore 2KB
train.py 27KB
README.md 5KB
共 50 条
- 1
资源评论
土豆片片
- 粉丝: 1562
- 资源: 5642
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功