add trouble shooting

main
hako-mikan 2025-01-30 20:32:19 +09:00
parent 3097e71a63
commit 32e77fe982
4 changed files with 21 additions and 9 deletions

View File

@ -299,15 +299,17 @@ APIを通してこの拡張を利用する場合には次の書式を使いま
```
![sample](https://github.com/hako-mikan/sd-webui-regional-prompter/blob/imgs/asample3.png)
## トラブルシューティイング
### Input type (struct c10::Half) and bias type (float) should be the same
 MIDVRAMオプションなどを使用している時にLoRAなどを使用している場合に上記エラーが出るときには"Use LoHa or other"オプションを有効にして下さい。
### IndexError: list index out of range
#### context = contexts[:,tll[i][0] * TOKENSCON:tll[i][1] * TOKENSCON,:]
#### fil = self.filters[a + b*areas]
BREAKなどの数と領域の数が一致しないときに発生します。use base などにチェックが入っている場合には外して試してみてください。
### 謝辞
Attention coupleを提案された[furusu](https://note.com/gcem156)氏、Latent coupleを提案された[opparco](https://github.com/opparco)氏、2D生成のコード作成に協力して頂いた[Symbiomatrix](https://github.com/Symbiomatrix)に感謝します。
### トラブルシューティイング
#### Input type (struct c10::Half) and bias type (float) should be the same
 MIDVRAMオプションなどを使用している時にLoRAなどを使用している場合に上記エラーが出るときには"Use LoHa or other"オプションを有効にして下さい。
- 新機能2D領域を追加しました
- 新しい計算方式「Latent」を追加しました。生成が遅くなりますがLoRAをある程度分離できます
- 75トークン以上を入力できるようになりました
- 共通プロンプトを設定できるようになりました
- 設定がPNG infoに保存されるようになりました

View File

@ -431,6 +431,10 @@ Result
### Input type (struct c10::Half) and bias type (float) should be the same
If you encounter above error while using LoRA with the MIDVRAM option or similar settings, please enable the **"Use LoHa or other"** option.
### IndexError: list index out of range
#### context = contexts[:,tll[i][0] * TOKENSCON:tll[i][1] * TOKENSCON,:]
#### fil = self.filters[a + b*areas]
This happens when the number of BREAKs doesnt match the number of areas. If "use base" is checked, try unchecking it and see if that helps.
## Acknowledgments
I thank [furusu](https://note.com/gcem156) for suggesting the Attention couple, [opparco](https://github.com/opparco) for suggesting the Latent couple, and [Symbiomatrix](https://github.com/Symbiomatrix) for helping to create the 2D generation code.

BIN
regional_masks/lastrun.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 5.5 KiB

View File

@ -261,7 +261,8 @@ class Script(modules.scripts.Script):
self.used_prompt = ""
self.logprops = ["active","mode","usebase","usecom","usencom","batch_size","is_sdxl","h","w","aratios",
"divide","count","eq","pn","hr","pe","step","diff","used_prompt"]
"divide","count","eq","pn","hr","pe","step","diff","used_prompt",
"pt","ppt","nt","pnt"]
self.log = {}
def logger(self):
@ -796,7 +797,12 @@ def tokendealer(self, p):
tokenizer = shared.sd_model.conditioner.embedders[0].tokenize_line if self.is_sdxl else shared.sd_model.cond_stage_model.tokenize_line
self.flux = flux = False
scheduled_np = prompt_parser.get_learned_conditioning_prompt_schedules(p.negative_prompts,p.steps)
for pp in ppl:
scheduled_p = prompt_parser.get_learned_conditioning_prompt_schedules([pp] ,p.steps)
pprint(scheduled_p)
tokens, tokensnum = tokenizer(pp)
pt.append([padd, tokensnum // TOKENS + 1 + padd])
ppt.append(tokensnum)