Make-An-Audio 2Make-An-Audio 2是一种基于扩散模型的文本到音频生成技术,由浙江大学、字节跳动和香港中文大学的研究人员共同开发。该技术通过使用预训练的大型语言模型(LLMs)解析文本,优化了语义对齐和时间一致性,提高了生成音频的质量。它还设计了基于前馈Transformer的扩散去噪器,以改善变长音频生成的性能,并增强时间信息的提取。此外,通过使用LLMs将大量音频标签数据转换为音频文本数据集,解决了时间数据稀缺的问题。000音频处理# 大型语言模型# 扩散模型# 文本到音频
TCANTCAN是一种基于扩散模型的新型人像动画框架,它能够保持时间一致性并很好地泛化到未见过的领域。该框架通过特有的模块,如外观-姿态自适应层(APPA层)、时间控制网络和姿态驱动的温度图,来确保生成的视频既保持源图像的外观,又遵循驱动视频的姿态,同时保持背景的一致性。010开发者工具# 人像动画# 开发编程# 扩散模型
Color-diffusionColor-diffusion是一个基于扩散模型的图像着色项目,它使用LAB颜色空间对黑白图片进行上色。该项目的主要优点在于能够利用已有的灰度信息(L通道),通过训练模型来预测颜色信息(A和B通道)。这种技术在图像处理领域具有重要意义,尤其是在老照片修复和艺术创作中。Color-diffusion作为一个开源项目,其背景信息显示,它是作者为了满足好奇心和体验从头开始训练扩散模型而快速构建的。项目目前是免费的,并且有很大的改进空间。000图像生成# LAB颜色空间# UNet# 图像着色