AniTalker是什么
AniTalker是由来自上海交大X-LANCE实验室和思必驰AISpeech的研究人员推出的AI对口型说话视频生成框架,能够将单张静态人像和输入的音频转换成栩栩如生的动画对话视频。该框架通过自监督学习策略捕捉面部的复杂动态,包括微妙的表情和头部动作。AniTalker利用通用运动表示和身份解耦技术,减少了对标记数据的依赖,同时结合扩散模型和方差适配器,生成多样化和可控制的面部动画,可实现类似阿里EMO和腾讯AniPortrait的效果。

AniTalker的主要功能
静态肖像动画化:AniTalker能够将任何单张人脸肖像转换成动态视频,其中人物能够进行说话和表情变化。音频同步:该框架能够将输入的音频与人物的唇动和语音节奏同步,实现自然的对话效果。面部动态捕捉:不仅仅是唇动同步,AniTalker还能模拟一系列复杂的面部表情和微妙的肌肉运动。多样化动画生成:利用扩散模型,AniTalker能够生成具有随机变化的多样化面部动画,增加了生成内容的自然性和不可预测性。实时面部动画控制:用户可以通过控制信号实时指导动画的生成,包括但不限于头部姿势、面部表情和眼睛运动。语音驱动的动画生成:框架支持直接使用语音信号来生成动画,无需额外的视频输入。长视频连续生成:AniTalker能够连续生成长时间的动画视频,适用于长时间的对话或演讲场景。
AniTalker的官网入口
官方项目主页:https://x-lance.github.io/AniTalker/GitHub源码库:https://github.com/X-LANCE/AniTalkerarXiv研究论文:https://arxiv.org/abs/2405.03121AniTalker的工作原理
