• 最新
8秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布_DreamO_

字节跳动和北大团队提出了统一的图像定制化生成框架DreamO,以极低的训练参数量(400M),就实现了如下图所展示的多种类型高质量图像定制化结果: 该工作旨在通过单一模型完成各种定制化任务。比如说,以小怪物为参考,让它在...

8秒生成创意图像!字节与北大联合推出DreamO开源框架

字节跳动与北京大学的DreamO团队近日发布了一种全新的图像定制化生成框架—DreamO。这一框架不仅能以低成本快速生成复杂场景图像,还能满足用户对多样化定制的需求。DreamO的亮点在于其能够通过简单的文本描述,快速生成符合...

8秒极速生成!字节与北大联合推出DreamO,重塑图像定制体验

针对这一问题,字节跳动与北京大学强强联手,推出了一种名为DreamO的全新图像定制生成框架,成功打破了“鱼和熊掌不可兼得”的局限。DreamO的核心优势在于其支持多条件组合的能力。不同于传统的图像生成模型,DreamO通过一个...

首个多模态扩散大语言模型MMaDA发布,同时实现强推理与高可控性_文本_图像_统一性

传统多模态大模型多基于自回归(Autoregressive)架构,其文本与图像生成过程的分离导致跨模态协同效率低下,且在后训练阶段难以有效优化复杂推理任务。在此背景下,普林斯顿大学与字节 Seed、北大、…

北京大学党委书记何光彩:构建具有北大特色的新工科 推动高等工程教育内涵式发展

(一)全球工程教育范式变革。麻省理工学院(MIT)的“新工程教育转型”...北大通过建立“未来技术学院”、“集成电路学院”等实体,与华为、字节跳动等企业共建实验室,推动“基础研究-技术孵化-产业应用”闭环,缩短创新链条。...

8秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源

字节跳动和北大团队提出了统一的图像定制化生成框架DreamO,以极低的训练参数量(400M),就实现了如下图所展示的多种类型高质量图像定制化结果: 该工作旨在通过单一模型完成各种定制化任务。比如说,以小怪物为参考,让它在...

NeurIPS 2024最佳论文开奖!北大字节NUS夺冠,Ilya连续三年获奖-The Paper

今年,来自北大字节,以及新加坡国立大学等机构的团队摘得桂冠。刚刚,NeurIPS 2024最佳论文放榜了!不出所料,今年两篇最佳论文分别颁给了,和新加坡国立大学Sea AI Lab团队。除此之外,大会还公布了「数据集与基准」赛道的...

重磅!北大联合字节VAR模型获NeurIPS 2024最佳论文:改写图像生成的未来范式

这篇论文提出了一种颠覆性的新型图像生成框架,不仅首次让自回归模型超越扩散模型,还开创了“逐尺度预测”的全新范式,为视觉生成领域开辟了全新的方向 另一篇是由新加坡国立大学、Sea AI Lab 研究者共同完成的《Stochastic ...

NeurIPS 2024最佳论文揭晓:北大字节VAR引领AI图像生成新潮流

北大与字节跳动的VAR模型通过引入多尺度自回归策略,首次将基于GPT的自回归模型应用于图像生成,并在计算复杂度和生成速度上表现出显著优势。具体来说,VAR模型从低到高的多尺度生成机制,使得每个尺度的生成图依赖于前一个...

北大字节开辟图像生成新范式!超越Sora核心组件DiT,不再预测下一个token_

北大和字节联手搞了个大的: 提出 图像生成新范式,从预测下一个token变成 预测下一级分辨率,效果超越Sora核心组件Diffusion Transformer(DiT)。并且代码开源,短短几天已经揽下1.3k标星,登上GitHub趋势榜。具体是个什么...

相关阅读