PixelDance
PixelDance是由字节跳动开发的一款高动态视频生成模型,它能够根据用户提供的图片和文本描述来生成具有复杂场景和动态效果的视频。这项技术特别在于它结合了图像指令(针对视频片段的首尾帧)和文本指令,使得生成的视频不仅视觉上丰富,而且动作细节丰富,能够展现出高度的动态性。
SEED-Story是一个腾讯开源的基于大型语言模型(MLLM)的多模态长篇故事生成模型,它能够根据用户提供的图片和文本生成连贯的叙事文本和风格一致的图片。无论是小说创作、剧本编写...
SEED-Story是一个腾讯开源的基于大型语言模型(MLLM)的多模态长篇故事生成模型,它能够根据用户提供的图片和文本生成连贯的叙事文本和风格一致的图片。无论是小说创作、剧本编写还是视觉故事,SEED-Story都能提供高质量、多模态的内容,助力创意产业的发展。
SEED-Story是一个基于大型语言模型(MLLM)的多模态长篇故事生成模型,其技术原理主要包括以下几个阶段:
1.预训练阶段:
在第一阶段,SEED-Story预训练了一个基于SD-XL的去标记化器(de-tokenizer)。该去标记化器通过接受预训练的视觉变换器(ViT)的特征作为输入来重建图片。
这一阶段的目标是使模型能够理解和生成高质量的视觉内容。
2.序列训练阶段:
在第二阶段,模型采样一个随机长度的交错图像-文本序列。通过对目标图像的ViT特征和可学习查询的输出隐藏状态之间的下一个词预测和图像特征回归来训练大型语言模型(MLLM)。
这一阶段的目标是使模型能够生成连贯的叙事文本,并在文本和图像之间建立关联。
3.调优阶段:
在第三阶段,从MLLM回归得到的图像特征被输入到去标记化器中,以调整SD-XL。
这一阶段的目标是增强生成图片中角色和风格的一致性,使生成的故事内容更加连贯和一致。
通过这三个阶段的训练和调优,SEED-Story能够生成丰富且连贯的叙事文本,并在角色和风格上保持一致的图片,适用于多模态长篇故事生成。