漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-05 talkingdev

FlexiFilm-新扩散模型助力长视频生成

FlexiFilm 是一种专门为生成超过30秒的长视频而设计的扩散模型,它能够保证生成的视频具有高度的一致性和质量。这一新模型的出现,将在视频制作领域开启新的可能性。视频长度不再受限,而且模型生成的视频质量也得以...

Read More
2024-03-12 talkingdev

VideoElevator:将文本转化为视频的新方法

VideoElevator引入了一种新的方法,通过利用文本到图像模型的优势来增强文本到视频扩散模型。这种即插即用的方法将增强过程分为了调整时间运动和提升空间质量两个部分,从而产生了帧质量和文本对齐得到了提高的视频...

Read More
2024-02-19 talkingdev

论文:如何使用扩散模型进行视频压缩

研究人员开发了一种新的视频压缩方法,使用扩散模型生成高质量的视频帧,同时保持低数据速率。该方法将视频压缩与机器学习相结合,能够在保持视频质量的同时减少数据传输的成本。研究人员在测试中发现,这种方法能够...

Read More
2024-02-06 talkingdev

AnimateLCM-高保真视频生成技术实现高质量视频创作

AnimateLCM是一种新的方法,可以通过将学习过程分成两部分来快速创建高质量的视频和改进现有的视频扩散模型。AnimateLCM的第一步是利用低复杂度的运动补偿技术来生成一个低质量的视频序列。 然后,利用一个基于自适...

Read More
2023-11-28 talkingdev

KskyVideo-文本到视频生成技术开源

Kandinsky Video采用双阶段文本到视频生成技术。首先,它通过关键帧来勾勒视频的故事情节,然后平滑过渡和移动,大大提高了视频质量并降低了计算要求。

Read More
2023-11-17 talkingdev

视频帧插值技术Distance Indexing进一步提升视频质量

本项目引入一种名为“distance indexing”的新方法,以改进传统的视频帧插值技术(VFI),该技术通常难以准确预测物体的运动。这种方法通过向模型提供有关物体在帧之间移动的距离的明确信息,来明确学习目标并减少模糊...

Read More
2023-11-10 talkingdev

双阶方法实现更高清的文本视频生成

I2VGen-XL模型采用双阶段方法解决视频合成中的挑战,例如保持语义准确性和清晰、连续的图像,首先将语义连贯性与视频质量增强分开处理。第一阶段专注于保留静态图像的内容,第二阶段则细化细节和分辨率。

Read More
2023-06-02 talkingdev

GeneFace++:实时音频驱动的三维说话人生成技术

近日,研究人员开发出了一项名为GeneFace++的技术,可以实现实时音频驱动的三维说话人生成。该技术的出现,让数字化的说话人物变得更加逼真,与任何语音音频同步。 GeneFace++的诞生,主要是为了解决数字世界中创造...

Read More
  1. Next Page