扩散模型

3DV-TON革新视频试穿,扩散模型驱动纹理3D一致性新体验

一款名为3DV-TON(Textured3D-Guided Consistent Video Try-on via Diffusion Models)的创新技术正式亮相,通过扩散模型实现纹理3D引导的视频试穿体验。据AIbase了解,3DV-TON利用先进的3D几何与纹理建模,结合视频扩散模型,确保服装在动态视频中的一致性与真实感,为电商、时尚和虚拟现实领域带来突破性应用。相关细节已通过学术平台与

Character.AI 推出 AvatarFX 模型:让静态图片中的人物“开口说话”

Character.AI 近日宣布推出全新视频生成模型 AvatarFX,这一突破性技术能够将静态图片转化为具有真实感的可说话视频角色,赋予图像中的人物动态表情、唇部同步以及自然肢体动作。AvatarFX 的核心是其最先进的基于扩散模型的动态生成技术。该技术依托经过精心筛选的数据集进行训练,融合了创新的音频条件化、蒸馏和推理策略,使得用户能够以极高的速度生成高保真、时间一致性强的视频。无论是长序列

新框架d1引领扩散模型推理进步,掀起强化学习应用新风潮

在人工智能的不断发展中,扩散模型在推理能力上逐渐崭露头角,现如今,它们不再是自回归模型的 “跟随者”。近日,来自加州大学洛杉矶分校(UCLA)和 Meta 的研究者们联合推出了一种名为 d1的新框架,该框架结合了监督微调(SFT)和强化学习(RL),使扩散模型具备更强的推理能力,包括数学理解、逻辑推理等。这一创新的 d1框架通过两阶段的后训练策略来提升掩码大语言模型(dLLM)的性能。在第一阶段,

国产AI崛起!17亿参数开源图像模型HiDream-I1横空出世

当代码的力量遇上艺术的灵感,新一代人工智能正在悄然改变创意世界的边界。近日,国产开源图像生成模型HiDream-I1震撼发布,凭借17亿参数的技术底蕴,这款由HiDream-ai团队倾力打造的AI"画匠"正迅速成为科技圈新宠。这款基于扩散模型技术的开源图像生成工具,能够将文本描述转化为高质量图像,在细节渲染和图像一致性方面展现出令人瞩目的实力。初步测试显示,HiDream-I1在色彩还原、边缘处理

EasyControl:让DiT模型拥有ControlNet般强大操控,支持吉卜力画风转换

在人工智能绘画领域,扩散模型(Diffusion Model)正经历从基于Unet架构向基于Transformer架构(DiT)的转变。然而,DiT生态系统在插件支持、效率以及多条件控制等方面仍面临挑战。近日,由Xiaojiu-z领衔的团队推出了名为EasyControl的创新框架,旨在为DiT模型提供高效且灵活的条件控制能力,犹如为DiT模型装上了强大的“ControlNet”。EasyCont