在最新的AI模型和研究领域,一种名为Latent Consistency Models(LCMs)的新技术正迅速推动文本到图像人工智能的发展。与传统的Latent Diffusion Models(LDMs)相比,LCMs在生成详细且富有创意的图像方面同样出色,但仅需1-4步骤,而不是数百步骤。这一创新正在为文本到图像AI迈向重要的飞跃。
LCMs的突破在于极大地减少了生成图像所需的步骤。相比于LDMs数百步骤的费时生成,LCMs在仅需1-4步骤的情况下达到了相似的质量水平。这一高效性是通过将预训练的LDMs精炼成更加简化的形式实现的,从而大大降低了计算资源和时间的需求。
在介绍了LCM模型的论文中还提到了一项创新,即LCM-LoRA,这是一种通用的稳定扩散加速模块。该模块可以直接插入各种稳定扩散微调模型中,无需额外的训练。这成为人工智能驱动的图像生成中的一种潜在工具,能够加速多样化的图像生成任务。
在论文中,研究团队通过一种称为“蒸馏”的巧妙方法来高效地训练LCMs。他们首先在文本与图像配对的数据集上训练了标准的Latent Diffusion Model(LDM),然后利用其生成的新训练数据来训练Latent Consistency Model(LCM)。这种蒸馏过程使得LCM能够从LDM的能力中学习,而无需在庞大的数据集上从头训练。这一过程的高效性体现在研究者仅用单个GPU在约32小时内成功训练出高质量的LCMs,远远快于以往的方法。
研究结果展示了LCMs在图像生成AI方面的重大进展。LCMs能够在仅4步的情况下创建高质量的512x512图像,相较于Latent Diffusion Models(LDMs)数百步的要求,是一项显著的改进。这些模型不仅轻松处理较小图像,而且在生成大型1024x1024图像方面表现出色,展示了它们适应较大神经网络模型的能力。
然而,当前LCMs的一个主要限制是两阶段训练过程,首先训练LDM,然后使用它来训练LCM。未来研究可能会探索更直接的LCMs训练方法,有可能避免使用LDM。此外,论文主要探讨了无条件图像生成,对于文本到图像合成等有条件生成任务,可能需要更多工作。
Latent Consistency Models代表了文本到图像快速、高质量生成的重大进步。这些模型在仅1-4步的情况下就能够产生与较慢LDMs相媲美的结果,有望彻底改变文本到图像模型在实际应用中的应用。
虽然目前还存在一些限制,特别是在训练过程和生成任务范围方面,但LCMs标志着基于神经网络的图像生成迈出了重要一步。与LoRA结合的LCM-LoRA模型则为高效生成高质量、风格特定图像提供了通用解决方案,具有广泛的实际应用潜力,从数字艺术到自动化内容创建都可能迎来颠覆性的革新。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
5 月 10 日消息,据中兴通讯官微,中兴二合一 5G 云电脑“逍遥”系列已经在电商平台上架。其支持本地、云端双模式,可在电脑与平板模式之间一键切换。售价方面,型号为 W200DS 的产品首销价格为 1899 元。
近日,中国家电及消费电子博览会(AWE 2024)隆重开幕。全球领先的智能终端企业TCL实业携多款创新技术和新品亮相,以敢为精神勇闯技术无人区,斩获四项AWE 2024艾普兰大奖。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
由世界人工智能大会组委会、上海市经信委、徐汇区政府、临港新片区管委会共同指导,由上海市人工智能行业协会联合上海人工智能实验室、上海临港经济发展(集团)有限公司、开放原子开源基金会主办的“2024全球开发者先锋大会”,将于2024年3月23日至24日举办。