ChatGPT中文网 - ChatGPT国内网页版在线使用

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

ChatGPT中文网是一个面向中国用户的聊天机器人网站旨在为国内用户提供一个自然的环境、有趣、实用的聊天体验。它使用最新的自然语言处理技术来帮助用户更好地理解他们的聊天对话还可以帮助用户解决日常生活中的问题提供有趣的谈话内容以及实时信息服务。

ChatGPT中文网

网站 http://wenzhang.zhuluan.com/zh-cn/

项目介绍

任何 transformer 变体、任何数据集都通用。

在一块消费级 GPU 上只用一天时间训练可以得到什么样的 BERT 模型

最近一段时间语言模型再次带火了 AI 领域。预训练语言模型的无监督训练属性使其可以在海量样本基础上进行训练并获得大量语义语法知识不论分类还是问答似乎没有 AI 解决不了的问题。

然而大模型既带来了技术突破也对算力提出了无穷无尽的需求。

最近来自马里兰大学的 Jonas Geiping、Tom Goldstein 讨论了所有关于扩大计算规模的研究深入探讨了缩小计算规模的改进方向。他们的研究引发了机器学习社区的关注。

在新研究中作者对于单块消费级 GPURTX 2080Ti能训练出什么样的语言模型进行了讨论并获得了令人兴奋的结果。让我们看看它是如何实现的

模型规模的扩展

在自然语言处理NLP领域基于 Transformer 架构的预训练模型已经成为主流并带来诸多突破性进展。很大程度上这些模型性能强大的原因是它们的规模很大。随着模型参数量和数据量的增长模型的性能会不断提高。因此NLP 领域内掀起了一场增大模型规模的竞赛。

然而很少有研究人员或从业者认为他们有能力训练大型语言模型LLM通常只有行业内的科技巨头拥有训练 LLM 的资源。

为了扭转这一趋势来自马里兰大学的研究者进行了一番探索。

论文《Cramming: Training a Language Model on a Single GPU in One Day》


论文链接https://arxiv.org/abs/2212.14034

这个问题对于大多数研究人员和从业者来说具有重要意义因为这将成为模型训练成本的参考并有望打破 LLM 训练成本超高的瓶颈。该研究的论文迅速在推特上引发关注和讨论。


IBM 的 NLP 研究专家 Leshem Choshen 在推特上评价道「这篇论文总结了所有你能想到的大模型训练 trick。」


马里兰大学的研究者认为如果按比例缩小的模型预训练是大型预训练的可行模拟那么这将开启一系列目前难以实现的大规模模型的进一步学术研究。

此外该研究尝试对过去几年 NLP 领域的整体进展进行基准测试而不仅仅局限于模型规模的影响。

该研究创建了一项称为「Cramming」的挑战 —— 在测试前一天学习整个语言模型。研究者首先分析了训练 pipeline 的方方面面以了解哪些修改可以实际提高小规模模拟模型的性能。并且该研究表明即使在这种受限环境中模型性能也严格遵循在大型计算环境中观察到的扩展定律。

虽然较小的模型架构可以加快梯度计算但随着时间的推移模型改进的总体速度几乎保持不变。该研究尝试利用扩展定律在不影响模型大小的情况下通过提高梯度计算的有效率获得性能提升。最后该研究成功训练出性能可观的模型 —— 在 GLUE 任务上接近甚至超过 BERT—— 而且训练成本很低。

资源有限

为了模拟普通从业者和研究人员的资源环境该研究首先构建了一个资源受限的研究环境

一个任意大小的基于 transformer 的语言模型完全从头开始使用掩码语言建模masked-language modeling进行训练

pipeline 中不能包含现有的预训练模型

任何原始文本不包括下游数据都可以包含在训练中这意味着可以通过明智地选择如何以及何时对数据进行采样来实现加速前提是采样机制不需要预训练模型

原始数据的下载和预处理不计入总预算这里的预处理包括基于 CPU 的 tokenizer 构造、tokenization 和 filtering但不包括表征学习

训练仅在单块 GPU 上进行 24 小时

下游性能在 GLUE 上进行评估GLUE 上的下游微调仅限于仅使用下游任务的训练数据进行简单训练5 个 epoch 或者更少并且需要使用为所有 GLUE 任务设置的全局超参数下游微调不计算在总预算中。

该研究与一些经典大模型的具体训练设置比较如下表所示


改进方法

研究人员实施并测试了已有工作提出的一些修改方向包括通用实现和初始数据设置并尝试了修改架构、训练以及改动数据集的方法。

实验在 PyTorch 中进行不使用特质化的实现以尽量公平所有内容都保留在 PyTorch 框架的实现级别上只允许可应用于所有组件的自动运算符融合另外只有在选择了最终的架构变体之后才会重新启用高效注意力内核。


不同 transformer 架构变体 MLM 损失函数与 token 对比的情况。左全局视图。右图放大到 10e8 和更多 token 情况下。所有模型都用相同算力成本训练我们可以看到通过架构重塑实现的改进微乎其微。

有关提升性能我们最先想到的方法肯定是修改模型架构。从直觉上较小 / 较低容量的模型似乎在一日一卡式的训练中是最优的。然而在研究了模型类型与训练效率之间的关系后研究人员发现缩放法则为缩小规模设置了巨大的障碍。每个 token 的训练效率在很大程度上取决于模型大小而不是 transformer 的类型。

此外较小的模型学习效率较低这在很大程度上减缓了吞吐量的增加。幸运的是在相同大小的模型中训练效率几乎保持不变这一事实意味着我们可以在参数量类似的架构中寻找合适的主要根据影响单个梯度步骤的计算时间来做出设计选择。

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: ChatGPT

“ChatGPT中文网 - ChatGPT国内网页版在线使用” 的相关文章