
妙笔是阿里巴巴最新开源的中文文生图模型,它与经典的Stable Diffusion 1.5版本结构相同,兼容现有的lora、controlnet等主流插件及其权重。妙笔的特点是用户可以直接输入中文进行文生图操作,生成的图像效果逼真。例如,输入“枯藤老树昏鸦,小桥流水人家。水墨画。”,妙笔能够理解诗句中的意境并生成相应的图像。
妙笔的训练数据包括Laion-5B中的中文子集、Midjourney相关的开源数据以及数十万的caption数据。但由于数据集在成语和古诗词方面存在偏差,对中国名胜地标建筑数据的缺少,以及大量的英译中数据,可能会导致一些理解上的混淆。目前,妙笔Beta0.9版本已经在8张4090显卡上完成训练,开发者也在计划扩展机器资源以训练更高级的模型,以期获得更优的结果。
妙笔的使用也非常简单,用户只需克隆项目并安装所需的包,下载模型权重后即可开始生成图像。此外,妙笔还提供了多种示例和教程,帮助用户快速上手和掌握使用方法。
妙笔直接输入中文就可以完成文生图操作,使用起来非常便捷,生图的效果也十分逼真。
比如输入“枯藤老树昏鸦,小桥流水人家。水墨画。”来看秒笔生成结果。可以看出妙笔很好的表达出来诗句中的意思并生成了诗中的内容。
再比如输入“极具真实感的复杂农村的老人肖像,黑白。”
可以看出生成的人像具有很好的完整性和真实感,以往生图模型在生成人像方面的缺点在这也都完成的很好。
项目地址
https://github.com/ShineChen1024/MiaoBi
安装运行
1.克隆项目
git clone https://github.com/ShineChen1024/MiaoBi.git
2.创建虚拟环境并安装所需要的包
conda create -n MiaoBi-SD python==3.10
conda activate MiaoBi-SD
pip install torch==2.0.1 torchvision==0.15.2 numpy==1.25.1 diffusers==0.25.1 opencv
3.下载模型
从Huggingface下载权重,并把它放在检查点文件夹。
MiaoBi checkpoints下载链接
Diffuser使用
from diffusers import StableDiffusionPipeline
from transformers import AutoTokenizertokenizer = AutoTokenizer.from_pretrained(“checkpoints/miaobi_beta0.9/tokenizer”, trust_remote_code=True)
pipe = StableDiffusionPipeline.from_pretrained(“checkpoints/miaobi_beta0.9”)pipe.to(“cuda”)
prompt = “一只穿着铠甲的猫”
image = pipe(prompt).images[0]
image.save(“铠甲猫.png”)
模型推理
python demo
python miaobi_generate.py
###controlnet demo
python miaobi_controlnet.py
中文生图示例
一只精致的陶瓷猫咪雕像,全身绘有精美的传统花纹,眼睛仿佛会发光。
动漫风格的风景画,有山脉、湖泊,也有繁华的小镇子,色彩鲜艳,光影效果明显。
车水马龙的上海街道,春节,舞龙舞狮。
局限性
妙笔的训练数据包含Laion-5B中的中文子集(经过清洗过滤),Midjourney相关的开源数据(将英文提示词翻译成中文),以及收集的一批数十万的caption数据。
由于整个数据集大量缺少成语与古诗词数据,所以对成语与古诗词的理解可能存在偏差,对中国的名胜地标建筑数据的缺少以及大量的英译中数据,可能会导致出现一些对象的混乱。
妙笔Beta0.9在8张4090显卡上完成训练,目前也在拓展机器资源来训练SDXL来获得更优的结果,期待后续的更新。
数据统计
相关导航

光语金帆 是由无限光年公司推出的金融大模型,结合了顶尖的人工智能技术和人才资源,旨在构建超越客户期望的人工智能生成内容(AIGC)产品组合,推动金融行业生产力和用户交互体验的全面提升,实现金融服务的智能化、公平化和普惠化。

DDColor
DDColor是阿里达摩院研究的一种基于深度学习的图像上色模型,它可以自动将黑白或灰度图像着色,使图像更加生动逼真。它使用了双解码器技术,能够同时考虑色彩分布和像素级详细信息,实现高度真实的图像上色效果。它还利用多尺度视觉特征和颜色损失来提高着色的语义合理性和颜色丰富性。

M2UGen
M2UGen是一个由腾讯和新加坡国立大学共同研发的多模态音乐生成模型,它具备音乐生成、理解和编辑的能力。具体来说,M2UGen可以接收文字、图片、视频或音频作为输入,然后生成与之相匹配的音乐。例如,给它一段文字,如诗句或故事,它能够创作出与文字内容相应的音乐;对于图片,它能创作出匹配的音乐,让图片仿佛“动起来”;对于视频,它可以根据视频内容创作出合适的背景音乐。

Lumiere
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。

书生·浦语 InternLM
书生·浦语 InternLM 是由商汤科技与上海AI实验室联合香港中文大学和复旦大学共同开发的新一代大型语言模型。它是在过万亿token数据上训练的多语千亿参数基座模型,具有较高的知识水平,尤其在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀。

HelloMeme
HelloMeme 是一个专注于生成高保真图像和视频内容的 AI 项目,特别是表情克隆技术。通过采用最新的 SD1.5 架构和空间编织注意力扩散模型,HelloMeme 可以轻松将一张图片的表情迁移到另一张图片或视频上,生成效果超越同类工具如 Liveportrait。HelloMeme 支持 ComfyUI 界面操作,非常适用于 AI 数字人、表情包制作和照片复活等领域,带来更自然细腻的表情效果。

CrewAI
CrewAI是一个创新的框架,专为角色扮演中的AI代理提供自动化设置。它通过促进AI代理之间的合作,使得这些代理能够共同解决复杂问题。CrewAI的核心特征包括角色定制代理、自动任务委派、任务管理灵活性和流程导向。它既可以使用OpenAI的API,也可以通过Ollama使用本地的大模型来运行程序。

ReSyncer
ReSyncer 是由清华大学、百度和南洋理工大学 S-Lab 实验室联合开发的多功能 AI 框架,专注于视频合成技术。它能够生成与音频高度同步的逼真口型视频,支持个性化调整、视频驱动口型同步、说话风格迁移和人脸交换。ReSyncer 在创建虚拟主持人、电影配音和多语言内容制作等领域具有广泛应用前景。
暂无评论...