提交 843514fd 编写于 作者: S SunGaofeng

fix - and _ mismatch, fix python3 bug in nonlocal codes

上级 397e3a8a
...@@ -38,18 +38,18 @@ ...@@ -38,18 +38,18 @@
``` bash ``` bash
export CUDA_VISIBLE_DEVICES=0 export CUDA_VISIBLE_DEVICES=0
python train.py --model-name=STNET python train.py --model_name=STNET
--config=./configs/stnet.txt --config=./configs/stnet.txt
--save-dir=checkpoints --save_dir=checkpoints
``` ```
多卡训练: 多卡训练:
``` bash ``` bash
export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7
python train.py --model-name=STNET python train.py --model_name=STNET
--config=./configs/stnet.txt --config=./configs/stnet.txt
--save-dir=checkpoints --save_dir=checkpoints
``` ```
视频模型库同时提供了快速训练脚本,脚本位于`scripts/train`目录下,可通过如下命令启动训练: 视频模型库同时提供了快速训练脚本,脚本位于`scripts/train`目录下,可通过如下命令启动训练:
......
...@@ -32,11 +32,11 @@ Attention Cluster模型使用2nd-Youtube-8M数据集, 数据下载及准备请 ...@@ -32,11 +32,11 @@ Attention Cluster模型使用2nd-Youtube-8M数据集, 数据下载及准备请
数据准备完毕后,可以通过如下两种方式启动训练: 数据准备完毕后,可以通过如下两种方式启动训练:
python train.py --model-name=AttentionCluster python train.py --model_name=AttentionCluster
--config=./configs/attention_cluster.txt --config=./configs/attention_cluster.txt
--save-dir=checkpoints --save_dir=checkpoints
--log-interval=10 --log_interval=10
--valid-interval=1 --valid_interval=1
bash scripts/train/train_attention_cluster.sh bash scripts/train/train_attention_cluster.sh
...@@ -56,9 +56,9 @@ Attention Cluster模型使用2nd-Youtube-8M数据集, 数据下载及准备请 ...@@ -56,9 +56,9 @@ Attention Cluster模型使用2nd-Youtube-8M数据集, 数据下载及准备请
可通过如下两种方式进行模型评估: 可通过如下两种方式进行模型评估:
python test.py --model-name=AttentionCluster python test.py --model_name=AttentionCluster
--config=configs/attention_cluster.txt --config=configs/attention_cluster.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
bash scripts/test/test_attention_cluster.sh bash scripts/test/test_attention_cluster.sh
...@@ -89,9 +89,9 @@ Attention Cluster模型使用2nd-Youtube-8M数据集, 数据下载及准备请 ...@@ -89,9 +89,9 @@ Attention Cluster模型使用2nd-Youtube-8M数据集, 数据下载及准备请
可通过如下命令进行模型推断: 可通过如下命令进行模型推断:
python infer.py --model-name=attention_cluster python infer.py --model_name=attention_cluster
--config=configs/attention_cluster.txt --config=configs/attention_cluster.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
--filelist=$FILELIST --filelist=$FILELIST
...@@ -102,4 +102,3 @@ Attention Cluster模型使用2nd-Youtube-8M数据集, 数据下载及准备请 ...@@ -102,4 +102,3 @@ Attention Cluster模型使用2nd-Youtube-8M数据集, 数据下载及准备请
## 参考论文 ## 参考论文
- [Attention Clusters: Purely Attention Based Local Feature Integration for Video Classification](https://arxiv.org/abs/1711.09550), Xiang Long, Chuang Gan, Gerard de Melo, Jiajun Wu, Xiao Liu, Shilei Wen - [Attention Clusters: Purely Attention Based Local Feature Integration for Video Classification](https://arxiv.org/abs/1711.09550), Xiang Long, Chuang Gan, Gerard de Melo, Jiajun Wu, Xiao Liu, Shilei Wen
...@@ -26,11 +26,11 @@ AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考[ ...@@ -26,11 +26,11 @@ AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考[
数据准备完毕后,可以通过如下两种方式启动训练: 数据准备完毕后,可以通过如下两种方式启动训练:
python train.py --model-name=AttentionLSTM python train.py --model_name=AttentionLSTM
--config=./configs/attention_lstm.txt --config=./configs/attention_lstm.txt
--save-dir=checkpoints --save_dir=checkpoints
--log-interval=10 --log_interval=10
--valid-interval=1 --valid_interval=1
bash scripts/train/train_attention_lstm.sh bash scripts/train/train_attention_lstm.sh
...@@ -42,9 +42,9 @@ AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考[ ...@@ -42,9 +42,9 @@ AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考[
## 模型评估 ## 模型评估
可通过如下两种方式进行模型评估: 可通过如下两种方式进行模型评估:
python test.py --model-name=AttentionLSTM python test.py --model_name=AttentionLSTM
--config=configs/attention_lstm.txt --config=configs/attention_lstm.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
bash scripts/test/test_attention_lstm.sh bash scripts/test/test_attention_lstm.sh
...@@ -75,9 +75,9 @@ AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考[ ...@@ -75,9 +75,9 @@ AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考[
可通过如下命令进行模型推断: 可通过如下命令进行模型推断:
python infer.py --model-name=attention_lstm python infer.py --model_name=attention_lstm
--config=configs/attention_lstm.txt --config=configs/attention_lstm.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
--filelist=$FILELIST --filelist=$FILELIST
...@@ -90,4 +90,3 @@ AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考[ ...@@ -90,4 +90,3 @@ AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考[
- [Beyond Short Snippets: Deep Networks for Video Classification](https://arxiv.org/abs/1503.08909) Joe Yue-Hei Ng, Matthew Hausknecht, Sudheendra Vijayanarasimhan, Oriol Vinyals, Rajat Monga, George Toderici - [Beyond Short Snippets: Deep Networks for Video Classification](https://arxiv.org/abs/1503.08909) Joe Yue-Hei Ng, Matthew Hausknecht, Sudheendra Vijayanarasimhan, Oriol Vinyals, Rajat Monga, George Toderici
- [Attention Clusters: Purely Attention Based Local Feature Integration for Video Classification](https://arxiv.org/abs/1711.09550), Xiang Long, Chuang Gan, Gerard de Melo, Jiajun Wu, Xiao Liu, Shilei Wen - [Attention Clusters: Purely Attention Based Local Feature Integration for Video Classification](https://arxiv.org/abs/1711.09550), Xiang Long, Chuang Gan, Gerard de Melo, Jiajun Wu, Xiao Liu, Shilei Wen
...@@ -88,11 +88,11 @@ Non-local模型的训练数据采用由DeepMind公布的Kinetics-400动作识别 ...@@ -88,11 +88,11 @@ Non-local模型的训练数据采用由DeepMind公布的Kinetics-400动作识别
数据准备完毕后,可以通过如下两种方式启动训练: 数据准备完毕后,可以通过如下两种方式启动训练:
python train.py --model-name=NONLOCAL python train.py --model_name=NONLOCAL
--config=./configs/nonlocal.txt --config=./configs/nonlocal.txt
--save-dir=checkpoints --save_dir=checkpoints
--log-interval=10 --log_interval=10
--valid-interval=1 --valid_interval=1
bash scripts/train/train_nonlocal.sh bash scripts/train/train_nonlocal.sh
...@@ -113,9 +113,9 @@ Non-local模型的训练数据采用由DeepMind公布的Kinetics-400动作识别 ...@@ -113,9 +113,9 @@ Non-local模型的训练数据采用由DeepMind公布的Kinetics-400动作识别
可通过如下两种方式进行模型评估: 可通过如下两种方式进行模型评估:
python test.py --model-name=NONLOCAL python test.py --model_name=NONLOCAL
--config=configs/nonlocal.txt --config=configs/nonlocal.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
bash scripts/test/test_nonlocal.sh bash scripts/test/test_nonlocal.sh
......
...@@ -14,11 +14,10 @@ ...@@ -14,11 +14,10 @@
import os import os
import numpy as np import numpy as np
import cPickle
import paddle.fluid as fluid import paddle.fluid as fluid
from ..model import ModelBase from ..model import ModelBase
import resnet_video from . import resnet_video
from .nonlocal_utils import load_params_from_file from .nonlocal_utils import load_params_from_file
import logging import logging
......
...@@ -21,7 +21,7 @@ import paddle.fluid as fluid ...@@ -21,7 +21,7 @@ import paddle.fluid as fluid
from paddle.fluid import ParamAttr from paddle.fluid import ParamAttr
import numpy as np import numpy as np
import nonlocal_helper from . import nonlocal_helper
def Conv3dAffine(blob_in, def Conv3dAffine(blob_in,
......
...@@ -19,7 +19,7 @@ from __future__ import division ...@@ -19,7 +19,7 @@ from __future__ import division
import paddle.fluid as fluid import paddle.fluid as fluid
from paddle.fluid.param_attr import ParamAttr from paddle.fluid.param_attr import ParamAttr
import resnet_helper from . import resnet_helper
import logging import logging
logger = logging.getLogger(__name__) logger = logging.getLogger(__name__)
......
...@@ -30,11 +30,11 @@ StNet的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集 ...@@ -30,11 +30,11 @@ StNet的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集
数据准备完毕后,可以通过如下两种方式启动训练: 数据准备完毕后,可以通过如下两种方式启动训练:
python train.py --model-name=STNET python train.py --model_name=STNET
--config=./configs/stnet.txt --config=./configs/stnet.txt
--save-dir=checkpoints --save_dir=checkpoints
--log-interval=10 --log_interval=10
--valid-interval=1 --valid_interval=1
bash scripts/train/train_stnet.sh bash scripts/train/train_stnet.sh
...@@ -62,9 +62,9 @@ StNet的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集 ...@@ -62,9 +62,9 @@ StNet的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集
可通过如下两种方式进行模型评估: 可通过如下两种方式进行模型评估:
python test.py --model-name=STNET python test.py --model_name=STNET
--config=configs/stnet.txt --config=configs/stnet.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
bash scripts/test/test__stnet.sh bash scripts/test/test__stnet.sh
...@@ -92,9 +92,9 @@ StNet的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集 ...@@ -92,9 +92,9 @@ StNet的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集
可通过如下命令进行模型推断: 可通过如下命令进行模型推断:
python infer.py --model-name=stnet python infer.py --model_name=stnet
--config=configs/stnet.txt --config=configs/stnet.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
--filelist=$FILELIST --filelist=$FILELIST
......
...@@ -34,11 +34,11 @@ TSM的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。 ...@@ -34,11 +34,11 @@ TSM的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。
数据准备完毕后,可以通过如下两种方式启动训练: 数据准备完毕后,可以通过如下两种方式启动训练:
python train.py --model-name=TSM python train.py --model_name=TSM
--config=./configs/tsm.txt --config=./configs/tsm.txt
--save-dir=checkpoints --save_dir=checkpoints
--log-interval=10 --log_interval=10
--valid-interval=1 --valid_interval=1
bash scripts/train/train_tsm.sh bash scripts/train/train_tsm.sh
...@@ -55,9 +55,9 @@ TSM的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。 ...@@ -55,9 +55,9 @@ TSM的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。
可通过如下两种方式进行模型评估: 可通过如下两种方式进行模型评估:
python test.py --model-name=TSM python test.py --model_name=TSM
--config=configs/tsm.txt --config=configs/tsm.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
bash scripts/test/test_tsm.sh bash scripts/test/test_tsm.sh
...@@ -76,9 +76,9 @@ TSM的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。 ...@@ -76,9 +76,9 @@ TSM的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。
可通过如下命令进行模型推断: 可通过如下命令进行模型推断:
python infer.py --model-name=TSM python infer.py --model_name=TSM
--config=configs/tsm.txt --config=configs/tsm.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
--filelist=$FILELIST --filelist=$FILELIST
...@@ -89,4 +89,3 @@ TSM的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。 ...@@ -89,4 +89,3 @@ TSM的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。
## 参考论文 ## 参考论文
- [Temporal Shift Module for Efficient Video Understanding](https://arxiv.org/abs/1811.08383v1), Ji Lin, Chuang Gan, Song Han - [Temporal Shift Module for Efficient Video Understanding](https://arxiv.org/abs/1811.08383v1), Ji Lin, Chuang Gan, Song Han
...@@ -25,11 +25,11 @@ TSN的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。 ...@@ -25,11 +25,11 @@ TSN的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。
数据准备完毕后,可以通过如下两种方式启动训练: 数据准备完毕后,可以通过如下两种方式启动训练:
python train.py --model-name=TSN python train.py --model_name=TSN
--config=./configs/tsn.txt --config=./configs/tsn.txt
--save-dir=checkpoints --save_dir=checkpoints
--log-interval=10 --log_interval=10
--valid-interval=1 --valid_interval=1
bash scripts/train/train_tsn.sh bash scripts/train/train_tsn.sh
...@@ -47,9 +47,9 @@ TSN的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。 ...@@ -47,9 +47,9 @@ TSN的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。
可通过如下两种方式进行模型评估: 可通过如下两种方式进行模型评估:
python test.py --model-name=TSN python test.py --model_name=TSN
--config=configs/tsn.txt --config=configs/tsn.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
bash scripts/test/test_tsn.sh bash scripts/test/test_tsn.sh
...@@ -69,9 +69,9 @@ TSN的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。 ...@@ -69,9 +69,9 @@ TSN的训练数据采用由DeepMind公布的Kinetics-400动作识别数据集。
可通过如下命令进行模型推断: 可通过如下命令进行模型推断:
python infer.py --model-name=TSN python infer.py --model_name=TSN
--config=configs/tsn.txt --config=configs/tsn.txt
--log-interval=1 --log_interval=1
--weights=$PATH_TO_WEIGHTS --weights=$PATH_TO_WEIGHTS
--filelist=$FILELIST --filelist=$FILELIST
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册