
PIXART-Σ是华为推出的图像生成模型,由华为诺亚方舟实验室、大连理工大学和香港大学的研究团队开发。采用Diffusion Transformer (DiT) 架构,可直接生成 4K 分辨率的 AI 图像。用户只需输入一段文字描述就能生成具有4K高分辨率的图像,相较于前身PixArt-α,它提供了更高的图像保真度和与文本提示更好的对齐。
PixArt-Σ的关键特性包括高效的训练过程,它通过结合更高质量的数据,从“较弱”的基线模型进化到“更强”的模型,这一过程被称为“弱到强训练”。PixArt-Σ的改进还包括使用了一种新的注意力模块,用于在DiT框架内压缩键和值,显著提高了效率,并促进了超高分辨率图像的生成。
PixArt-Σ适用于需要生成高分辨率图像的应用场景,如电影海报和壁纸设计、游戏视觉内容制作等。无论是艺术家、设计师还是视觉内容创作者,PixArt-Σ都能提供高效、高质量的图像生成解决方案。
此外,研究团队还提供了相关的代码和演示,以便其他研究人员和开发者可以进一步探索和利用这个模型。
项目地址:https://pixart-alpha.github.io/PixArt-sigma-project/
论文地址:https://arxiv.org/abs/2401.05252
PIXART-Σ文生图模型视频介绍:
https://img.pidoutv.com/wp-content/uploads/2024/03/1467539549-1-16.mp4
功能特点
PIXART-Σ的功能特点主要体现在以下几个方面:
- 高效的训练过程:PIXART-Σ通过结合更高质量的数据,实现了从“较弱”的基线模型到“更强”的模型的进化,这一过程被称为“弱到强训练”。这种训练方式不仅提高了模型的性能,也使其在处理各种复杂的图像生成任务时具有更高的效率。
- 高效的标记压缩:PIXART-Σ采用了高效的标记压缩技术,这种技术可以显著减少训练过程中的计算量,同时保持模型的性能,从而进一步提升了训练效果。
- 4K文本到图像生成:PIXART-Σ支持直接生成4K分辨率的高质量图像,这对于需要高分辨率视觉内容的应用场景,如电影、游戏和高质量视觉内容制作等,具有极大的价值。
- 较小的模型大小:尽管PIXART-Σ能够实现卓越的图像质量和用户提示的遵循能力,但其模型大小却相对较小,这使其在运行和部署时具有更高的灵活性和效率。
和主流其他模型效果对比
上图展示了PixArt-Σ与一些开源模型(如PixArt-α和SDXL)在相同的文本提示下的生成效果:与PixArt-α相比,PixArt-Σ显著提高了肖像的真实感和语义分析能力。与SDXL相比,该方法具有更好的遵循用户指令的能力。其中关键字高亮显示为蓝色。
上图展示了PixArt-Σ和其它四款T2I产品:Firefly 2、Imagen 2、Dalle 3和Midjourney V6在相同的文本提示下的生成效果。通过观察,我们可以发现:PixArt-Σ生成的图像与这些商业产品相比非常具有竞争力。
数据统计
相关导航

Ferret-UI是苹果公司与哥伦比亚大学研究团队联合发布的一个多模态AI大语言模型。它专为增强对移动端用户界面(UI)屏幕的理解而设计,具备引用、定位和推理功能。这个模型能够理解手机屏幕上的内容并执行任务,专注于移动端和用户交互。

Moonvalley.ai
Moonvalley.ai是一款功能强大的文本到视频生成式AI模型。它可以从简单的文字描述中生成高清视频和动画,涵盖各种不同的风格,包括超现实视频、动漫以及介于两者之间的所有内容。用户只需提供简要的文字提示,即可创造电影级的视觉效果。该模型主打高清、16:9电影画质,视频质量比大多数其他一代AI视频工具要好得多。

快手可图大模型KOLORS
可图大模型KOLORS是一款快手自研的文生图大模型,支持文生图和图生图两类功能,已上线20余种AI图像玩法。

讯飞星火大模型
讯飞星火大模型是科大讯飞发布的一个基于深度学习的自然语言处理模型,以中文为核心,具备跨领域多任务上的类人理解和生成能力。注册免费领取1500万Tokens,该模型对标ChatGPT,并在多个领域表现出色。

Segment Anything
Segment Anything是一个基于深度学习的图像分割模型,它可以根据用户的输入提示(如点或框)生成高质量的物体遮罩。它可以用于为图像中的任何物体生成遮罩,无论是常见的物体(如人、车、猫等),还是罕见的物体(如火箭、恐龙、魔法棒等)。它的特点是具有强大的零样本性能,即它可以在没有见过的类别上进行分割,而不需要额外的训练数据。它的另一个优点是具有快速的推理速度,即它可以在几秒钟内处理一张图像,而不需要显卡或云计算资源。

腾讯混元DiT
腾讯混元DiT是一个基于Diffusion transformer的文本到图像生成模型,也是业内首个中文原生的DiT架构文生图开源模型。该模型具有中英文细粒度理解能力,能够与用户进行多轮对话,根据上下文生成并完善图像。

YAYI2
YAYI2(雅意2)是中科闻歌推出的新一代开源大语言模型,支持中文、英语等 10 多种语言。基于 Transformer 架构,参数规模达到 30B。YAYI2 采用 2 万亿 Tokens 的高质量语料进行预训练,并结合人类反馈强化学习,确保模型与人类价值观对齐。其多模态交互功能支持图文互生成、PDF 解析等。YAYI2 广泛应用于媒体宣传、舆情分析、政务治理、金融分析等领域,为企业提供 AI 辅助工具和知识库问答系统。

DDColor
DDColor是阿里达摩院研究的一种基于深度学习的图像上色模型,它可以自动将黑白或灰度图像着色,使图像更加生动逼真。它使用了双解码器技术,能够同时考虑色彩分布和像素级详细信息,实现高度真实的图像上色效果。它还利用多尺度视觉特征和颜色损失来提高着色的语义合理性和颜色丰富性。
暂无评论...