qlip(quantized language-image PRetraining)是英伟达等公司推出的一种视觉标记化技术,旨在结合高质量的图像重建和零样本图像理解能力。qlip通过二进制球形量化(bsq)的自编码器进行训练,同时优化重建目标和语言-图像对齐目标。qlip能够作为视觉编码器或图像标记器,无缝集成到多模态模型中,在理解与生成任务中表现出色,为统一多模态模型的开发提供了新的思路。
- 高质量图像重建:以较低的压缩率重建高质量的图像。
- 强大的语义理解:支持生成语义丰富的视觉标记,支持零样本图像分类和多模态理解任务。
- 多模态任务支持:作为视觉编码器或图像标记器,无缝集成到多模态模型中,支持文本到图像生成、图像到文本生成等任务。
- 统一的多模态模型:支持一个模型同时处理纯文本、图像到文本和文本到图像的任务。
QLIP的技术原理包括:
- 二进制球形量化(BSQ):使用二进制球形量化技术,将图像编码为离散的视觉标记。BSQ将高维空间中的点映射到单位球面上的二进制角点,实现高效的量化和压缩。
- 对比学习目标:QLIP引入对比学习目标,通过图像文本对齐的方式,使视觉标记与语言嵌入对齐。QLIP使用InfoNCE损失函数,学习将同一图像和文本对的嵌入拉近,将不同对的嵌入推远。对齐机制使视觉标记能够重建图像并理解图像的语义内容。
- 两阶段训练:
- 第一阶段:优化重建损失、量化损失和对比损失的加权和,目标是学习语义丰富的视觉表示,同时保持图像的重建质量。
- 第二阶段:在第一阶段的基础上,进一步优化重建质量,通过微调量化瓶颈和视觉解码器,恢复高频细节。这一阶段会丢弃文本编码器并冻结视觉编码器,避免在大批次训练时的性能退化。
- 动态平衡损失:基于动态调整对比损失和重建损失的权重,解决两种目标之间的竞争问题。具体方法是根据损失值的倒数调整权重,平衡两种目标的收敛速度。
- 加速训练与更好的初始化:从预训练的模型(如Masked Image Modeling或CLIP)初始化视觉编码器和文本编码器,显著提高训练效率,减少训练所需的样本数量。
QLIP的项目地址包括:
- 项目官网:https://www.php.cn/link/8122ecf0e8a3dfbbd36d13b64aa30796
- gitHub仓库:HTTPS://www.PHP.cn/link/141fded8387b387998eeedd6820f3ee3
- HuggingFace模型库:https://www.php.cn/link/77d756bc450e12c9eb62517c97afc6e9
- arXiv技术论文:https://www.php.cn/link/a42c6d96e478f1d17de4125dd591e306
QLIP的应用场景包括:
- 多模态理解:用于视觉问答(VQA)和图文推理(GQA),帮助模型理解图像生成准确回答。
- 文本到图像生成:根据文本描述生成高质量图像,细节更符合语义。
- 图像到文本生成:生成图像描述(caption),提供更准确的文本内容。
- 统一多模态模型:支持一个模型同时处理文本、图像到文本和文本到图像的任务。