FROZEN TRANSFORMERS IN LANGUAGE MODELS ARE EFFECTIVE VISUAL ENCODER LAYERS-CSDN博客

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

本文是LLM系列文章针对《FROZEN TRANSFORMERS IN LANGUAGE MODELS ARE EFFECTIVE VISUAL ENCODER LAYERS》的翻译。

语言模型中的冻结Transformer是有效的视觉编码器层

摘要

本文揭示了大型语言模型LLM尽管仅根据文本数据进行训练但在没有语言的情况下对于纯视觉任务来说它是令人惊讶的强大编码器。更有趣的是这可以通过一种简单但以前被忽视的策略来实现——使用来自预训练LLM的冻结transformer块作为组成编码器层来直接处理视觉标记。我们的工作突破了利用LLM进行计算机视觉任务的界限大大偏离了传统实践传统实践通常需要多模式视觉语言设置以及相关的语言提示、输入或输出。我们证明我们的方法在各种任务中始终提高了性能包括纯2D和3D视觉识别任务例如图像和点云分类、时间建模任务例如动作识别、非语义任务例如运动预测和多模态任务例如2D/3D视觉问答和图像文本检索。这种改进是一种普遍现象适用于各种类型的LLM例如LLaMA和OPT和不同的LLMtransformer块。我们还提出了信息过滤假设以解释预训练LLM在视觉编码中的有效性——预训练的LLMtransformer块识别信息性视觉标记并进一步放大其效果。这一假设得到了经验上的支持即在用LLMtransformer块训练后特征激活对相关区域表现出更强的关注。我们希望我们的工作能激发我们对利用LLM的新观点并加深我们对其潜在机制的理解。代码在https://github.com/ziqipang/LM4VisualEncoding可见.

1 引言

2 相关工作

3 方法用于视觉编码的冷冻LLMTransformer

4 LLMTransformer在视觉任务中的适用性

5 面向可视化任务的LLMTransformer分析

6 信息过滤假设

7 结论

讨论和限制。我们已经验证了经过预训练的冻结语言Transformer在各种视觉任务中的能力。值得注意的是我们的目标是有条不紊地探索这个调查不足的问题。因此我们的实验旨在在与公认或有竞争力的基线进行公平比较的情况下最大限度地提高任务的多样性而不是为所有任务争取最先进的性能这也受到我们计算资源的限制。我们把所有任务的实验规模扩大到最先进的水平作为有趣的未来工作。同时我们还注意到我们的信息过滤假设没有涵盖几个有趣的问题例如如何量化不同层的功能以及分析训练过程如何促进视觉表征特征与语言transformer的合作这些也是有意义的方向。
结论。在这项工作中我们探索了大型语言模型LLM作为视觉任务编码器的意外能力这与它们传统的基于文本的应用程序有很大不同。通过将来自预训练LLM的冻结Transformer块无缝集成到视觉编码器中我们观察到在2D图像和视频分类、3D点云识别、非语义运动预测以及2D和3D视觉语言任务等各种视觉挑战中性能都得到了一致的增强。这一现象以我们提出的信息过滤假设为基础突出了LLM对更一般的表征学习的内在适应性和多功能性。我们希望我们的见解将促进对LLM应用未知领域的进一步探索并促进创新战略以新颖的方式利用其潜力。

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6