
Magic Clothing是一个专注于控制性的服装驱动图像合成的项目,它是OOTDiffusion模型的一个分支版本,旨在通过服装来控制图像的生成。并且官方团队发布了在 768 分辨率上训练的模型权重,此版本中服装和文本提示的强度可以独立调整。以及支持与IP-Adapter-FaceID、ControlNet-Openpos模型一起使用,能够使用肖像和参考姿势图像作为附加条件。这个项目的目标是为图像合成提供更多的控制和灵活性,使得用户能够根据自己的需求创建更具个性化和创意的图像。
- MagicClothing权重文件:https://huggingface.co/ShineChen1024/MagicClothing
- github:https://github.com/ShineChen1024/MagicClothing/tree/main
- OOTDiffusion技术论文:https://arxiv.org/abs/2403.01779
- IP-Adapter-FaceID:https://huggingface.co/h94/IP-Adapter-FaceID
Magic Clothing的主要功能特点
- 控制性:用户可以通过文本提示来控制图像合成中的服装细节,从而生成定制的、穿着特定服装的人物图像。
- 高度可控:系统能够在生成过程中融合服装细节,实现高度可控和细粒度的图像输出。
- 多模态支持:支持IP-Adapter-FaceID,允许使用面部图像作为额外条件,提高图像合成的个性化和准确性。
- 模型更新:提供了不同分辨率的模型权重,如512和768分辨率,以及最新的1024分辨率版本,适用于VTON-HD和DressCode。
- 可视化工具:提供了Gradio工具,用户可以通过这些工具来探索和使用Magic Clothing的功能。
ComfyUI_MagicClothing体验
ComfyUI_MagicClothing是MagicClothing虚拟试衣的非官方实现ComfyUI插件,但也是一款强大的ComfyUI插件,支持功能如下:
- 通过提示生语成服装图像
- IPAdapter FaceID 配合人脸检测和服装图像合成
- IPAdapter FaceID 配合 controlnet openpose 和服装图像合成
- 支持上半身、下半身和全身模型
ComfyUI_MagicClothing插件安装
可以使用插件管理器搜索ComfyUI_MagicClothing安装,或者采用Git工具安装。
Git安装如下
在 ComfyUI 的 custom_nodes 目录下运行下列CLI命令
git clone https://github.com/frankchieng/ComfyUI_MagicClothing.git
pip install -r requirements.txt
模型下载
需要从Huggingface下载 cloth_segm.pth, magic_clothing_768_vitonhd_joint.safetensors(上半身模型), OMS_1024_VTHD+DressCode_200000.safetensors(下半身和全身模型)3个模型,并将它们放置在ComfyUI/custom_nodes/ComfyUI_MagicClothing/checkpoints 目录下。
同时,如果需要体验 ipadapterfaceid保持面部风格一致性迁移,那么还需要安装 ComfyUI_IPAdapter_plus 自定义节点。然后从IPAdapter FaceID 模型,并将它们放置在对应目录结构下。
另外,如果还想运行 controlnet openpose 部分,那么必须安装 comfyui_controlnet_aux 插件,以及下载 openpose 模型中的 body_pose_model.pth, facenet.pth 和 hand_pose_model.pth,并将它们放置在 custom_nodes/comfyui_controlnet_aux/ckpts/lllyasviel/Annotators目录下。
还有部分模型会在运行时根据用户选项下载(如openpose模型 body_pose_model.pth, facenet.pth 和 hand_pose_model.pth),因此需要能访问huggingface。
文件结构如下:
ComfyUI
|– models
| |– ipadapter
| | |– ip-adapter-faceid-plus_sd15.bin
| | |– ip-adapter-faceid-plusv2_sd15.bin
| | |– ip-adapter-faceid_sd15.bin
| |– loras
| | |– ip-adapter-faceid-plus_sd15_lora.safetensors
| | |– ip-adapter-faceid-plusv2_sd15_lora.safetensors
| | |– ip-adapter-faceid_sd15_lora.safetensors
|– custom_nodes
| |– ComfyUI_MagicClothing
| | |– checkpoints
| | | |– cloth_segm.pth
| | | |– magic_clothing_768_vitonhd_joint.safetensors
| | | |– OMS_1024_VTHD+DressCode_200000.safetensors
MagicClothing模型体验
01. simple workflow
02. IPAdapater FaceID workflow
03. IPAdapater FaceID chained with controlnet openpose workflow
04. full-body workflow with IPadapterFaceid
注:实践效果中对于人物面部特征保持相对弱,作者也提到很快会有人物细节更好改善版模型。目前内置模型为SD1.5模型,作者称将会尝试dreamshape8, xxmix9realistic_v40等SDXL模型。
附录
- github:https://github.com/ShineChen1024/MagicClothing/tree/main
- 插件:https://github.com/frankchieng/ComfyUI_MagicClothing/tree/main
数据统计
相关导航

天壤小白是基于语言大模型的AI应用开放平台,无需代码开发,即可快速、灵活地搭建个性化的AI应用。通过提示词工程、语义搜索、向量数据库等各类AI工具组件,破解幻觉难题,为开发者和企业提供一站式的大模型应用服务。覆盖知识管理、市场销售、客户服务、内容生成、辅助决策、多语言翻译等多个场景。

MotionGen
MotionGen 是由元象科技推出的创新 3D 动作生成模型。通过结合大模型、物理仿真和强化学习等前沿算法,简化 3D 动画制作过程。用户只需输入简单的文本指令,即可快速生成逼真、流畅且复杂的 3D 动作。无论是动画、游戏、电影还是虚拟现实行业,MotionGen 都能显著提高创作效率,降低制作成本。

神力霓裳
神力霓裳是阿里大文娱发布的自研影视妆造大模型。这个模型可以根据要求快速生成影视级的各朝代服饰造型,辅助造型师进行创意设计。它主要服务于古装剧,包含造型设计、妆发设计和纹样设计三大功能。

悟道大模型
悟道大模型是由北京智源人工智能研究院发起的超大规模预训练模型研究项目,不仅具备强大的语言理解和生成能力,还能进行逻辑推理、代码分析、图像生成等多种任务,支持多种类型的文本内容生成,如小说、歌词、诗歌、对联等。

Llama 2
Llama 2是Meta AI推出的新一代大型语言模型(LLM),参数规模从70亿到700亿不等。它是为对话场景而优化的,称为Llama 2-Chat,能够在多数基准上超越开源的对话模型,并且在人类评估的有用性和安全性上,可能是闭源模型的合适替代品。

Codex大模型
Codex大模型是一个基于GPT技术的强大编程语言模型,具备自动生成代码、文档、测试用例等功能。它能够理解和处理复杂的编程问题,提高开发效率,是编程领域的重要创新。

Darwin
Darwin是一个开源项目,专注于自然科学领域的大型语言模型构建,主要涵盖物理、化学和材料科学。通过对科学文献和数据集进行预训练和微调,Darwin 在科学问答和多任务学习任务中表现优异。它结合了结构化和非结构化的科学知识,提升了语言模型在科学研究中的效能。

千影QianYing
千影 QianYing 是一款由巨人网络 AI Lab 推出的有声游戏生成大模型,包含游戏视频生成大模型 YingGame 和视频配音大模型 YingSound。通过先进的人工智能技术,千影 QianYing 能够自动生成高质量、有声的游戏视频。YingGame 通过自定义角色、动作控制和物理模拟,创造互动性强的游戏内容;YingSound 则为视频添加高保真音效,实现精确的跨模态对齐和时间同步。
暂无评论...