sd-webui-oldsix-prompt/README.md

59 lines
2.0 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# v1.75
### 老版词库 @路过银河&网上收集
### 新词库由群里小伙伴 @麻瓜 @万碎爷 @元一斤 整理
### 开源不易,觉得好用的可以给我点颗星 ###
#### 英文不好不用怕彻底解决prompt对于国人不友好的痛点整理了多个分类上千个提示词无需英文快速输入提示词
#### 词库会持续更新
* AI交流Q群390942276 各种疑难解答 帮你踩坑
* 已分好类别的词库,不会做太大改动,尽量不破坏大家的使用习惯
---
* 特别鸣谢群里兄弟们的支持
<p> @鑫鑫、@六尘、@以及不愿意透露姓名的水友们</p>
# <img src="imgs/wx.jpg" width="300" height="400" />
### 插件安装
* webui、forge版本
```sh
https://github.com/thisjam/sd-webui-oldsix-prompt.git
```
* comfyui版本
```sh
https://github.com/thisjam/comfyui-sixgod_prompt.git
```
---
### 使用方法
* alt+q或点击图标打开插件页面
* 左键输入正向提示框、 右键输入负向提示框
* 支持自定义词库【把你自己整理词库文件放在yours文件夹下不受更新会被覆盖影响】
* 支持中文输入、权重调整、位置调整。Alt+Q键呼出隐藏面板
* 支持动态随机提示词 本插件专属语法示例:#[red,blue,yellow]
---
### 大模型配置(可用于翻译和随机灵感)
1. 安装 llama_cpp_python
* 方式一、参考https://github.com/abetlen/llama-cpp-python
* 方式二、llama-cpp-python的gpu离线包下载地址自行下载对于版本下载安装
- https://abetlen.github.io/llama-cpp-python/whl/cu121/
- https://abetlen.github.io/llama-cpp-python/whl/cu122/
- https://abetlen.github.io/llama-cpp-python/whl/cu123/
- https://abetlen.github.io/llama-cpp-python/whl/cu124/
3. 大模型下载(需要.gguf格式
* 建议千问大模型推荐qwen1_5-4b-chat-q2_k.gguf
* 地址https://huggingface.co/Qwen
---
### 展示
# <img src="imgs/1.png" width="768" height="512" />
# <img src="imgs/2.png" width="768" height="512" />