1175 字
6 分钟
如何在ubuntu下玩上最新ai绘画的模型
现在越来越多的Aigc的模型我们该在linux上玩以z-image-turbo为例子
为什么选择z-image-turbo
Z-Image-Turbo 是由阿里巴巴通义实验室(Tongyi Lab)开发的开源高性能图像生成模型,属于Z-Image系列。它基于60亿参数架构,通过先进的蒸馏技术(如Decoupled-DMD),在仅需8步推理、小于1秒的亚秒级速度下生成高质量图片,特别擅长中英文本渲染、真实感及人像生成,可在消费级GPU上运行。
核心特性:
- 极致速度与效率: 采用蒸馏技术,仅需8个推理步骤(NFE),在企业级和消费级显卡上均能实现亚秒级生成。
- 硬件要求低: 显存要求<16GB,消费级显卡即可轻松运行。
- 卓越画质: 尽管轻量化,但其生成的图像真实感强,文字渲染能力强,在开源模型中表现优异。
- 支持中文: 相比其他主流模型,对中文字符的识别和渲染更加精准。
- 兼容性: 适配 ComfyUI 等主流工具,方便用户集成和使用。
为什么选择linux?
ComfyUI 和 Linux 简直是“天作之合”。虽然 Windows 也能跑,但在 Linux(尤其是 Ubuntu 或 Arch)上,你会感觉到一种从“能用”到“好用”的质变。
以下是Linux系统的核心优势:
1.显存管理更高效(VRAM管理)
这是最重要的原因。Windows 系统本身会占用大量显存(即使你什么都不做,系统 UI 和后台进程也会吃掉 0.5GB 到 1.5GB 的 VRAM)。
- **Linux 的优势:**在不运行桌面环境(Headless)或使用轻量级桌面时,系统对显存的占用几乎可以忽略不计。
- **结果:**你可以用同样的显卡跑更大的模型(如 SD3 或 Flux),或者设置更高的 Batch Size 而不易出现
Out of Memory (OOM)错误。
2. PyTorch 的原生支持
PyTorch(ComfyUI 的核心引擎)是在Linux环境下优先开发的。
- **xformers 与 Flash 注意:**这些加速算子在 Linux 上的编译和安装通常比 Windows 顺滑剃须。
- **Triton 支持:**很多高性能的采样器和加速插件依赖
Triton。虽然 Windows 逐渐开始支持,但在 Linux 上它是“开箱即用”且性能最稳定的。
3. I/O性能与软链接
ComfyUI玩家通常会有几十GB甚至几个TB的模型文件。
- 文件系统: Linux 的 ext4 或 xfs 文件系统在处理大量小文件和超大模型文件时,读取速度通常赶上 Windows 的 NTFS。
- 软链接(Symbolic Links): Linux处理软链接非常优雅。如果你有多个AI工具(如WebUI、ComfyUI、Kohya_ss),你可以轻松地用一行命令让它们共享同一个模型文件夹,而不会出现权限或路径识别的幺蛾子。
4. 远程部署与自动化
ComfyUI 的本质是一个 Web 服务。
- 生产力工具: Linux让你能够轻松地在后台挂起进程(使用
screen或tmux),或者将其配置作为系统服务。 - **SSH 访问:**你可以在性能强大的 Linux 工作站上运行 ComfyUI,然后在平板、轻薄本甚至手机上通过浏览器流畅操作,这种“前后台分离”的体验在 Linux 上自然而然地发挥作用。
如何安装
我推荐使用miniconda来管理linux环境因为我一直使用miniconda我知道它的优势
# 创建并激活 Python 3.11 专属环境conda create -n comfyui python=3.11 -yconda activate comfyui
# 安装支持 CUDA 12.4 的 PyTorch (Linux 环境下的最佳选择)pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124安装comfyui:
git clone https://github.com/comfyanonymous/ComfyUI.gitcd ComfyUIpip install -r requirements.txt安装z-image-turbo的Aio(all in one)civital和huggingface
对于4060的8g显存的我只有AIO才能给我完美的体验
不要忘记把模型放在ComfyUI/models/checkpoints中
安装完成如何进入
zcw@ubuntu:~$ cd ~/ComfyUIconda activate comfyuipython main.py --fp8_e4m3fn-text-enc --preview-method auto或者可以直接
python main.pycomfyui的使用
这是我的工作流可以采纳

你也可直接使用我的工作流json文件导入
1inputssamples0 "5"1 0vae0 "2"1 2class_type "VAEDecode"_metatitle "VAE解码"2inputsckpt_name "zImageTurboBaseAIO_zImageTurboFP8AIO.safetensors"class_type "CheckpointLoaderSimple"_metatitle "Checkpoint加载器(简易)"3inputstext ""clip0 "2"1 1class_type "CLIPTextEncode"_metatitle "CLIP文本编码"4inputswidth 1080height 720batch_size 1class_type "EmptyLatentImage"_metatitle "空Latent图像"5inputsseed 633593483438906steps 8cfg 1.3sampler_name "euler"scheduler "simple"denoise 1model0 "2"1 0positive0 "18"1 0negative0 "3"1 0latent_image0 "4"1 0class_type "KSampler"_metatitle "K采样器"7inputsfilename_prefix "ComfyUI"images0 "1"1 0class_type "SaveImage"_metatitle "保存图像"18inputstext "一个美丽的人"clip0 "2"1 1class_type "CLIPTextEncode"_metatitle "CLIP文本编码" 如何在ubuntu下玩上最新ai绘画的模型
https://fuwari.vercel.app/posts/260222/