- 21 6月, 2019 21 次提交
-
-
由 ZhenWang 提交于
-
由 ZhenWang 提交于
-
由 ZhenWang 提交于
-
由 Zhen Wang 提交于
-
由 Zhen Wang 提交于
-
由 Zhen Wang 提交于
-
由 Chunwei 提交于
refactor api and recover CI cache See merge request inference/paddlelite!28
-
由 Chunwei 提交于
-
由 xingzhaolong 提交于
add gemv gemm int8 neon kernel See merge request inference/paddlelite!41
-
由 开心的小妮 提交于
[LITE] Fix bug of global max pooling See merge request inference/paddlelite!36
-
由 开心的小妮 提交于
-
-
由 nhzlx 提交于
-
由 shixiaowei02 提交于
add calib kernel See merge request inference/paddlelite!34
-
由 tensor-tang 提交于
fix build type See merge request inference/paddlelite!40
-
由 tensor-tang 提交于
-
由 sangoly 提交于
1.add mobilenet_v1 & resnet50 & inception_v4 ci tests. 2.fix some bugs See merge request inference/paddlelite!39
-
由 sangoly 提交于
-
-
由 nhzlx 提交于
-
由 lijianshe 提交于
add server batch_norm kernel and unitest See merge request inference/paddlelite!38
-
- 20 6月, 2019 11 次提交
-
-
由 Shixiaowei02 提交于
-
由 lijianshe02 提交于
-
由 Chunwei 提交于
parallel CI See merge request inference/paddlelite!35
-
由 Chunwei 提交于
-
由 nhzlx 提交于
add empty conv kernel
-
由 xingzhaolong 提交于
init . ARM INT8 support See merge request inference/paddlelite!33
-
由 Hong Ming 提交于
make all ARMContext share the same DeviceInfo, and export SetRunMode to allow users to set the thread num
-
-
http://10.87.145.36/inference/paddlelite由 hong19860320 提交于
Merge branch 'incubate/lite' of http://10.87.145.36/inference/paddlelite into hongming/refine_arm_context
-
由 hong19860320 提交于
test=develop
-
由 Shixiaowei02 提交于
-
- 19 6月, 2019 8 次提交
-
-
由 nhzlx 提交于
-
由 tensor-tang 提交于
speedup and split ci See merge request inference/paddlelite!32
-
由 tensor-tang 提交于
-
由 Chunwei 提交于
add scale eliminate pass See merge request inference/paddlelite!18
-
由 Chunwei 提交于
-
-
由 nhzlx 提交于
1. add fake_quant fake_dequant op 2. add quant_dequant fuse pass 3. fix bug for passes for arm 4. softmax axis problem
-
由 sangoly 提交于
add mobilenet_v2 test See merge request inference/paddlelite!31
-