- 02 3月, 2024 3 次提交
-
-
由 AUTOMATIC1111 提交于
-
由 AUTOMATIC1111 提交于
-
由 AUTOMATIC1111 提交于
Protect alphas_cumprod during refiner switchover
-
- 06 1月, 2024 1 次提交
-
-
由 baidu_19665223 提交于
-
- 06 12月, 2023 1 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
- 03 12月, 2023 2 次提交
- 02 12月, 2023 2 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
由 MrCheeze 提交于
-
- 30 11月, 2023 1 次提交
-
-
由 drhead 提交于
-
- 25 11月, 2023 1 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
- 21 11月, 2023 1 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
- 19 11月, 2023 1 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
- 06 11月, 2023 2 次提交
-
-
由 AUTOMATIC1111 提交于
-
由 AUTOMATIC1111 提交于
-
- 05 11月, 2023 2 次提交
-
-
由 Ritesh Gangnani 提交于
-
由 Ritesh Gangnani 提交于
-
- 28 10月, 2023 1 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
- 25 10月, 2023 4 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
由 Kohaku-Blueleaf 提交于
-
由 Kohaku-Blueleaf 提交于
-
由 Kohaku-Blueleaf 提交于
-
- 24 10月, 2023 2 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
由 Kohaku-Blueleaf 提交于
Since norm layer need fp32, I only convert the linear operation layer(conv2d/linear) And TE have some pytorch function not support bf16 amp in CPU. I add a condition to indicate if the autocast is for unet.
-
- 19 10月, 2023 2 次提交
-
-
由 Kohaku-Blueleaf 提交于
-
由 Kohaku-Blueleaf 提交于
-
- 15 10月, 2023 1 次提交
-
-
由 AUTOMATIC1111 提交于
-
- 14 10月, 2023 1 次提交
-
-
由 AUTOMATIC1111 提交于
-
- 07 10月, 2023 2 次提交
-
-
由 wangqiuwen 提交于
-
由 wangqiuwen 提交于
-
- 30 9月, 2023 1 次提交
-
-
由 AUTOMATIC1111 提交于
-
- 18 9月, 2023 1 次提交
-
-
由 王秋文/qwwang 提交于
-
- 16 9月, 2023 1 次提交
-
-
由 woweenie 提交于
-
- 15 9月, 2023 1 次提交
-
-
由 qiuwen.wang 提交于
-
- 08 9月, 2023 1 次提交
-
-
由 w-e-w 提交于
-
- 30 8月, 2023 2 次提交
-
-
由 AUTOMATIC1111 提交于
-
由 AUTOMATIC1111 提交于
-
- 23 8月, 2023 1 次提交
-
-
由 AUTOMATIC1111 提交于
-
- 22 8月, 2023 1 次提交
-
-
由 AUTOMATIC1111 提交于
-
- 21 8月, 2023 1 次提交
-
-
由 Uminosachi 提交于
-