
NotaGen
NotaGen 是由中央音乐学院与清华大学等机构联合研发的AI音乐生成模型,专注于生成高质量古典音乐乐谱,同时支持流行音乐创作。作为开源项目,其目标是推动音乐与人工智能的深度融合,为专业作曲家、教育机构及音乐爱好者提供创作辅助工具。
Loopy是一个端到端音频驱动的视频生成模型,专注于生成逼真的头像动画。利用先进的 AI 技术和时间模块设计,Loopy 能够从音频中提取自然的运动模式,并生成高质量的动画效果。支持多种视觉和音频风格,适用于虚拟主播、动画制作等应用场景。
Loopy是一个端到端音频驱动的视频生成模型,专注于生成逼真的头像动画。利用先进的 AI 技术和时间模块设计,Loopy 能够从音频中提取自然的运动模式,并生成高质量的动画效果。支持多种视觉和音频风格,适用于虚拟主播、动画制作等应用场景。 Loopy – 端到端音频驱动的视频生成模型,专注于生成逼真的头像动画 主要功能和特点 音频驱动:Loopy 可以从音频中生成生动的运动细节,包括叹息、情感驱动的眉毛和眼睛运动以及自然的头部运动。 时间模块设计:通过设计的时间模块和音频到潜在空间模块,利用数据中的长期运动信息,学习自然的运动模式。 多样化的视觉和音频风格:支持各种视觉和音频风格,能够根据不同的音频输入生成适应运动的合成结果。 高质量结果:无需手动指定空间运动模板,能够在各种场景中生成更逼真和高质量的结果。 生动运动:生成的运动细节包括非语言运动,如叹息、情感驱动的眉毛和眼睛运动,以及自然的头部运动。 应用场景 虚拟主播:生成逼真的头像动画,提升虚拟主播的表现力和互动性。 动画制作:为动画角色生成自然的面部表情和运动,节省手动画的时间和成本。 在线教育:创建具有人类面部表情的教育视频,增强学生的学习体验。 社交媒体内容创作:生成生动的头像动画视频,用于社交媒体平台上的内容创作和传播。 广告营销:制作带有生动表情的产品宣传视频,吸引观众的注意力。 游戏开发:为游戏中的角色生成自然的面部运动和表情,提升游戏的沉浸感。