PyTorch 架构优化库 torchao 正式发布,可大幅提升 AI 模型效率

2024-10-03 发布 · 浏览175次 · 点赞0次 · 收藏0次

10 月 2 日消息,据 PyTorch 新闻稿,PyTorch 旗下架构优化库 torchao 现已正式发布,该优化库主要专注于模型的量化和稀疏性优化,能够在保证性能的同时降低模型的计算成本和 RAM 用量,从而提升模型运行效率,附 GitHub 页面地址(点此访问)。

据介绍,torchao 提供了一系列优化工具集,可以帮助 LLaMA 3 等流行的 AI 模型提升性能,其支持 float8、int4 等低精度数据类型,能够有效减少硬件开销和 RAM 用量。

官方举例,在 LLaMA 3 70B 模型的预训练中,torchao 提供的 float8 训练流程可将模型计算速度提升 1.5 倍。开发者只需利用 convert_to_float8_training 函数,即可将模型训练转换为 float8,从而轻松实现模型高效训练。

在推理方面,torchao 提供多种量化方法,包括权重量化(Weight-Only Quantization)和动态激活量化(Dynamic Activation Quantization),用户可以自有选择适合的量化策略,以获得最佳的模型推理性能。

在稀疏性优化方面, torchao 可以优化模型参数计算效率,据称可让 ViT-H 模型的推理速度提升 5%。同时,torchao 还可以将权重量化为 int4,并将键值缓存量化为 int8,可令 LLaMA 3.1 8B 在完整的 128K 上下文长度下仅占用 18.9GB 的显存

PyTorch 架构优化库 torchao 正式发布,可大幅提升 AI 模型效率 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。