CLIP Text Encode (Prompt) 是 ComfyUI 中最基础也是最关键的节点之一,用于将文本提示词(prompt)编码为可供模型理解的语义特征张量(conditioning)。

可以将其理解为:你与 AI 进行沟通的翻译官,把人类语言翻译成 AI 能理解的指令。

它依赖于 CLIP 模型,对输入的文字内容进行语义提取,作为后续图像生成流程的“创作指令”。

Load Checkpoint → CLIP 输出            │            ▼      CLIP Text Encode            │            ▼         KSampler(positive / negative)

这个过程对图像质量、风格、主题控制至关重要。

在文生图、图生图、ControlNet、IPAdapter、动画等流程中,文本编码都是基础环节之一。

📌 端口与参数

📌 输入端口

🟡 clip

CLIP 模型输入

通常来自 Load Checkpoint 节点或 Load LoRA 节点,表示要使用哪个编码器对文本进行编码。

提示:

如果不连接此端口,ComfyUI 会尝试自动从当前主模型中推断 CLIP,但建议手动连接确保模型一致。

📌 参数

text

提示词输入框

你可以在此直接输入英文提示词(或经训练支持的其他语言)。

示例:

a futuristic city at night, neon lights, 4K, cinematic

支持多行文本输入:

masterpiece, best qualitya girl standing in the rain

支持 prompt 加权,比如:

"a cat:1.2, wearing glasses"

支持特定 tokent 使用,比如:

((best quality))

提示:

也可将其作为输入端口连接到带 STRING(text) 类型输出端口的节点,比如:

Deep Translator Text NodeArgos Translate CLIP Text Encode NodePreview Text Node

📌 输出端口

🟡 CONDITIONING

条件向量输出

输出编码后的提示词张量。可连接至:

KSampler 的 positive 或 negative 端口
FluxGuidance 进行引导强度调节
ControlNet 条件注入模块

💡 使用建议与说明

1、语言建议使用英文

目前大多数模型训练数据以英文为主,中文或非英语提示词可能效果较弱。

2、一般需同时使用两个 CLIP Text Encode 节点

正面提示词 → positive

负面提示词 → negative

使用 positive / negative 分别引导想要或者不想要的图像特征。

3、使用 Flux 模型时

但在 FLUX 基础模型中,很多版本(如 flux dev / schnell)并不需要反向提示词。

此时需要在 KSampler 节点中将 cfg 参数设置为 1.0,以避免 CFG 引导逻辑生效),而使用 FluxGuidance 节点来负责“正面提示词的引导力度”。

图片

“点赞行美意,赞赏是鼓励”

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐