- 11 7月, 2023 2 次提交
-
-
由 AUTOMATIC1111 提交于
-
由 AUTOMATIC1111 提交于
fix: add queue lock for refresh-checkpoints
-
- 10 7月, 2023 1 次提交
-
-
由 tangjicheng 提交于
-
- 27 6月, 2023 7 次提交
-
-
由 AUTOMATIC 提交于
-
由 AUTOMATIC1111 提交于
Zoom and pan: More options in the settings and improved error output
-
由 AUTOMATIC1111 提交于
fixed typos
-
由 AUTOMATIC1111 提交于
Use os.makedirs(..., exist_ok=True)
-
由 AUTOMATIC1111 提交于
Fix Typo of hints.js
-
由 AUTOMATIC1111 提交于
Strip whitespaces from URL and dirname prior to extension installation
-
由 AUTOMATIC 提交于
-
- 25 6月, 2023 1 次提交
-
-
由 Jabasukuriputo Wang 提交于
This avoid some cryptic errors brought by accidental spaces around urls
-
- 18 6月, 2023 1 次提交
-
-
由 zhtttylz 提交于
-
- 14 6月, 2023 2 次提交
-
-
由 Danil Boldyrev 提交于
-
由 Danil Boldyrev 提交于
-
- 13 6月, 2023 3 次提交
-
-
由 Aarni Koskela 提交于
-
由 Danil Boldyrev 提交于
-
由 Danil Boldyrev 提交于
-
- 10 6月, 2023 9 次提交
-
-
由 arch-fan 提交于
-
由 AUTOMATIC 提交于
-
由 AUTOMATIC 提交于
-
由 AUTOMATIC 提交于
-
由 AUTOMATIC1111 提交于
Allow activation of Generate Forever during generation
-
由 AUTOMATIC1111 提交于
persistent conds cache
-
由 AUTOMATIC1111 提交于
Don't die when a LoRA is a broken symlink
-
由 AUTOMATIC1111 提交于
Split mask blur into X and Y components, patch Outpainting MK2 accordingly
-
由 AUTOMATIC1111 提交于
Forcing Torch Version to 1.13.1 for RX 5000 series GPUs
-
- 09 6月, 2023 3 次提交
-
-
由 Aarni Koskela 提交于
Fixes #11098
-
由 Splendide Imaginarius 提交于
Fixes unexpected noise in non-outpainted borders when using MK2 script.
-
由 Splendide Imaginarius 提交于
Prequisite to fixing Outpainting MK2 mask blur bug.
-
- 08 6月, 2023 2 次提交
- 07 6月, 2023 3 次提交
-
-
由 AUTOMATIC1111 提交于
link footer API to Wiki when API is not active
-
由 AUTOMATIC1111 提交于
Fix upcast attention dtype error.
-
由 Alexander Ljungberg 提交于
Without this fix, enabling the "Upcast cross attention layer to float32" option while also using `--opt-sdp-attention` breaks generation with an error: ``` File "/ext3/automatic1111/stable-diffusion-webui/modules/sd_hijack_optimizations.py", line 612, in sdp_attnblock_forward out = torch.nn.functional.scaled_dot_product_attention(q, k, v, dropout_p=0.0, is_causal=False) RuntimeError: Expected query, key, and value to have the same dtype, but got query.dtype: float key.dtype: float and value.dtype: c10::Half instead. ``` The fix is to make sure to upcast the value tensor too.
-
- 06 6月, 2023 6 次提交