EMO
EMO (Emote Portrait Alive) 是阿里巴巴集团智能计算研究院的研究团队开发的一个音频驱动型肖像视频生成框架。具体来说,EMO系统基于音频信号驱动来生成肖像视频。用户只需要提供一张参考图片和一段音频文件(例如说话、唱歌的声音),EMO就能够根据音频内容生成一个生动的视频,视频中的人物会展现出丰富的面部表情和多变的头部动作,仿佛照片中的人物正在唱你所制定的语言或歌曲。
LOADING
AnimateZero是腾讯AI团队发布的一款AI视频生成模型,通过改进预训练的视频扩散模型(Video Diffusion Models),能够更精确地控制视频的外观和运动,实现从静态图像到动态视频的无缝...
AnimateZero是腾讯AI团队发布的一款AI视频生成模型,通过改进预训练的视频扩散模型(Video Diffusion Models),能够更精确地控制视频的外观和运动,实现从静态图像到动态视频的无缝转换。
用户可以通过输入文本和图像来生成视频,比如由动漫人物的图片生成的视频,不仅人物动作流畅,还融入了眼睛变色、头发蓬蓬的小细节。而且AnimateZero还能通过插入文本嵌入来控制视频的动态效果,比如将车子颜色更改等。
项目地址:https://vvictoryuki.github.io/animatezero.github.io/
GitHub:https://github.com/vvictoryuki/AnimateZero?tab=readme-ov-file
AnimateZero的视频介绍:
https://img.pidoutv.com/wp-content/uploads/2024/03/1364693701-1-16.mp4
AnimateZero的功能特点主要体现在以下几个方面:
以下是AnimateZero的一些主要适用群体:
AnimateZero支持各种个性化的图像领域,包括但不限于现实风格、动漫风格、像素艺术风格等。此外,它还可以用于视频编辑、帧插值、循环视频生成和真实图像动画等应用领域。这使得AnimateZero成为一个多功能的工具,适合广泛的用户和应用场景。