Diffree是一款由OpenGVLab开发的先进Al贴图框架,专注于通过文本描述在图像中无缝添加新对象。无论是室内设计、广告创作还是个人照片编辑,Diffree都能根据用户输入的文字描述,自动预测并添加新对象,注重保持与原始图像的背景一致性,包括光线、色调和颜色,确保新对象看起来自然融入。其核心技术包括稳定扩散模型和掩码预测模块,训练于OABench数据集,确保高质量和相关性。使用Diffree,用户无需手动绘制遮罩或边界框,即可轻松实现图像的智能编辑。
Diffree: 基于文本引导的智能图像修复与对象添加工具
Diffree主要功能特点
- 文本到图像的编辑:用户通过输入文字描述,Diffree能够在图像中识别并添加相应的对象。
- 自动掩码预测:Diffree能够自动预测并确定新添加对象的位置和形状,无需用户手动绘制。
- 掩码无缝融合:新添加的对象与原始图像的背景在光线、色调、颜色等方面保持一致,实现自然融合。
- 背景信息保留:在添加新对象的过程中,Difree会保留原始图像的背景信息,确保新旧元素之间的和谐。
- 高质量图像输出:通过逐步生成和细化,Diffree输出的图像质量高,新添加的对象看起来像是原本就在图像中。
Diffree的技术原理
1.文本引导的对象添加:Diffree是一个文本到图像(Text-to-Image, T2I)模型,能够根据用户输入的文本描述,在图像中添加新对象。例如,用户输入“添加一只猫”,Diffree会在图像中找到合适的位置添加一只猫。
2.掩码预测模块:Diffree使用了一个额外的掩码预测模块,能够自动预测新对象在图像中的位置和形状。这意味着用户无需手动绘制遮罩或边界框,模型会自动完成这些步骤。
3.稳定扩散模型:Diffree基于稳定扩散模型(Stable Diffusion Model),这是一种先进的生成模型,能够生成高质量的图像。该模型在OABench数据集上进行了训练,确保其能够准确理解和生成图像内容。
4.OABench数据集:OABench是一个合成数据集,包含了74K个真实世界的图像和文本对。该数据集通过先进的图像修复技术移除了对象,并提供了原始图像、修复后的图像、对象掩码和对象描述。这使得Diffree能够在训练过程中学习如何在图像中无缝添加新对象。
5.高质量融合:Diffree在添加新对象时,注重保持与原始图像的背景一致性,包括光线、色调和颜色,确保新对象看起来自然融入。
这些技术使得Diffree能够在图像编辑和创作中提供强大的功能,特别适用于需要高质量图像修复和对象添加的场景。
Diffree的项目相关地址
项目官网:https://opengvlab.github.io/Diffree/
GitHub仓库:https://github.com/OpenGVLab/Diffree
Hugging Face模型库:https://huggingface.co/spaces/LiruiZhao/Dif_free
arXiv技术论文:https://arxiv.org/pdf/2407.16982