Midjourney操作界面

ICEdit – 浙江大学联合哈佛大学推出的指令式图像编辑框架

4.8
0热度
HuggingFace

ICEdit是什么ICEdit(In-Context Edit)是浙江大学和哈佛大学推出的指令式图像编辑框架。基于大规模扩散变换器(Diffusion Transformer)的强大生成能力和上下文感知能力,用自然语言指令对图像进行精准编辑。ICEdit仅需0.1%的训练数据和1%的可训练参数,相比传统方法大幅减少资源需求,在多轮编辑和多任务编辑中表现出色。ICEdit具备开源、低成本、快速处

ICEdit是什么

ICEdit(In-Context Edit)是浙江大学和哈佛大学推出的指令式图像编辑框架。基于大规模扩散变换器(Diffusion Transformer)的强大生成能力和上下文感知能力,用自然语言指令对图像进行精准编辑。ICEdit仅需0.1%的训练数据和1%的可训练参数,相比传统方法大幅减少资源需求,在多轮编辑和多任务编辑中表现出色。ICEdit具备开源、低成本、快速处理(单张图像约9秒)等优势,适合广泛的应用场景。

ICEdit

ICEdit的主要功能

  • 指令驱动的图像编辑:基于自然语言指令对图像进行精准修改,例如更换背景、添加文字、改变人物服装等。
  • 多轮编辑:支持连续多次编辑,每次编辑基于前一次的结果,适合复杂创作需求。
  • 风格转换:支持将图像转换为不同艺术风格,如水彩画、漫画等。
  • 对象替换与添加:替换图像中的对象或添加新元素,如将人物替换为卡通角色。
  • 高效处理:处理速度快(单张图像约9秒),适合快速生成和迭代。

ICEdit的技术原理

  • 上下文编辑框架(In-Context Editing Framework):基于“上下文提示”(In-Context Prompting),将编辑指令嵌入到生成提示中,模型基于处理提示生成编辑后的图像。无需对模型架构进行修改,避免传统方法中复杂的结构调整。基于上下文理解,模型直接生成符合指令的编辑结果。
  • LoRA-MoE混合微调策略(LoRA-MoE Hybrid Fine-Tuning):结合参数高效的LoRA(Low-Rank Adaptation)适配器和动态专家路由(Mixture-of-Experts, MoE)。LoRA基于低秩矩阵分解,高效地调整模型参数,适应不同的编辑任务。MoE基于动态选择最适合当前任务的专家模块,进一步提升编辑质量和灵活性。仅需少量数据(50K样本)进行微调,显著提高编辑成功率。
  • 推理时早期筛选策略(Early Filter Inference-Time Scaling):在推理阶段,基于视觉语言模型(VLM)评估早期生成的噪声样本,筛选出最符合编辑指令的初始噪声。用少量步骤(如4步)评估编辑效果,快速选择最优的初始噪声,进一步提高编辑质量。

ICEdit的项目地址

  • 项目官网:https://river-zhang.github.io/ICEdit-gh-pages/
  • GitHub仓库:https://github.com/River-Zhang/ICEdit
  • HuggingFace模型库:https://huggingface.co/sanaka87/ICEdit-MoE-LoRA
  • arXiv技术论文:https://arxiv.org/pdf/2504.20690
  • 在线体验Demo:https://huggingface.co/spaces/RiverZ/ICEdit

ICEdit的应用场景

  • 创意设计:将照片转为艺术风格(如水彩画),或添加创意元素,用在设计和广告。
  • 影视制作:快速生成角色设计或场景概念图,辅助影视前期开发。
  • 社交媒体:编辑个人照片(如换背景、加特效),制作吸引人的社交内容。
  • 教育领域:生成教学用图,如将历史人物转为漫画风格,辅助教学。
  • 商业广告:快速制作产品宣传图,如更换背景、添加品牌标志。

点赞(0)

评论列表 共有 0 条评论

暂无评论
发表
评论
顶部