量化QAT QLoRA GPTQ

这篇具有很好参考价值的文章主要介绍了量化QAT QLoRA GPTQ。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

模型量化的思路可以分为PTQ(Post-Training Quantization,训练后量化)和QAT(Quantization Aware Training,在量化过程中进行梯度反传更新权重,例如QLoRA),GPTQ是一种PTQ的思路。

QAT(Quantization Aware Training)

BN需要先融合掉:
量化QAT QLoRA GPTQ,机器学习,深度学习
伪量化节点是根据融合图来决定的

量化过程中不可导的部分是Round函数,Hinton论文中把他的导数置为1,这就解决了量化框架中梯度反向传播的问题,图片截取自https://www.bilibili.com/video/BV13s4y1D73L/:
量化QAT QLoRA GPTQ,机器学习,深度学习
量化QAT QLoRA GPTQ,机器学习,深度学习
AdaRound和AdaQuant这些论文都是一层层训练的,QAT需要把某些层切成子图,对子图量化即可。

QLoRA

几个关键点:

  • 4bit NormalFloat 量化
  • 双重量化
  • Page Optimizer:Page Optimizer机制使得在GPU显存吃紧的时候可以把optimizer转移到内存上,在需要更新optimizer状态时再加载回来,据说可以有效减少GPU显存的峰值占用,文章称想要达到在24gb上训练33B 参数模型这个机制是必须的

QLoRA实现中用了bitsandbytes这个库

GPT

例如TensorRT的后量化,paddlepaddle的后量化,推理框架最清楚网络做哪些图融合,但是GPT不会训练,不会梯度反传。PPQ是商汤出的量化框架
量化QAT QLoRA GPTQ,机器学习,深度学习

GPTQ

GPTQ并不是完全凭空头脑风暴出来的想法,而是经过OBD(Optimal Brain Damage)->OBS(Optimal Brain Surgeon,Second Order Derivatives for Network Pruning)-> OBQ(Optimal Brain Quantization)->GPTQ逐渐演化过来的。这一类思路基本的出发点在于先考虑一个单层的网络W,如何找到一个量化后的网络Wq,使得W和Wq之间的差别最小?OBD方法是Lecun在1989年就在搞的方法,主要思路用W和Wq之间的误差进行泰勒展开,展开后舍弃一些项,得到利用海森矩阵进行迭代更新;OBS方法发现OBD方法在进行权重剪切的过程中并不完全合理,所以新增了权重删除补偿的策略(参考https://readpaper.feishu.cn/docx/HaM7d7uGhoQ2VPxxZBacpduDny7);OBS在执行中是直接把权重展开计算对应的海森矩阵,然后按照顺序进行量化,OBQ对量化的顺序进行了调整,将权重分行进行计算,利用贪心算法每次找到量化误伤最小的行进行量化,量化复杂度显著降低;GPTQ在OBQ基础上进行顺序量化+组内联合,进一步降低了量化的复杂度(参考https://readpaper.feishu.cn/docx/OPP2dTuXAoaO0oxWhQAcC05Wnpc)
量化QAT QLoRA GPTQ,机器学习,深度学习
GPTQ在实现中用Cholesky分解来稳定了数值计算文章来源地址https://www.toymoban.com/news/detail-680087.html

到了这里,关于量化QAT QLoRA GPTQ的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 【量化课程】08_2.深度学习量化策略基础实战

    【量化课程】08_2.深度学习量化策略基础实战

    深度学习是模拟人脑进行分析学习的神经网络。 深度神经网络(DNN) 卷积神经网络(CNN) 马尔可夫链(MC) 玻尔兹曼机(BM) 生成对抗网络(GAN) 长短期记忆网络(LSTM) 2.1 LSTM 介绍 长短期记忆网络(LSTM)是一种常用于处理序列数据的循环神经网络(RNN)的变体,被广泛应用于自然语言处

    2024年02月13日
    浏览(36)
  • 深度学习模型量化、剪枝、压缩

    深度学习模型量化、剪枝、压缩

    fp16是指采用2字节(16位)进行编码存储的一种数据类型; fp32是指采用4字节(32位); fp16 和 fp32 相比对训练的优化: 1. 内存占用减少 :应用fp16内存占用比原来更小,可以设置更大的batch_size 2. 加速计算 :加速计算只在最近的一些新gpu中,这一块我还没有体验到好处...有论文指出

    2024年02月16日
    浏览(17)
  • 【量化课程】08_1.机器学习量化策略基础实战

    【量化课程】08_1.机器学习量化策略基础实战

    1.1 回归模型 线性回归 多层感知器回归 自适应提升树回归 随机森林回归 1.2 分类模型 线性分类 支持向量机 XGBoost分类 K近邻分类 1.2.1 SVC介绍 SVC(Support Vector Classifier)是一种在机器学习中常用的分类算法,它基于支持向量机(Support Vector Machine)算法。SVC通过寻找最佳的超平

    2024年02月13日
    浏览(28)
  • 深度学习之神经网络量化理解

    深度学习之神经网络量化理解

    刚开始接触神经网络,对量化是2年前那会,用NCNN和TVM在树莓派上部署一个简单的SSD网络。那个时候使用的量化脚本是参考于TensorRT和NCNN的PTQ量化(训练后量化)模式,使用交叉熵的方式对模型进行量化,最终在树莓派3B+上部署一个简单的分类模型(识别剪刀石头布静态手势

    2024年02月02日
    浏览(8)
  • 量化择时——LSTM深度学习量化择时(第1部分—因子测算)

    量化择时——LSTM深度学习量化择时(第1部分—因子测算)

    之前我们尝试使用SVM,将时序数据转为横截面的数据,使用机器学习的方法进行预测 量化择时——SVM机器学习量化择时(第1部分—因子测算): https://blog.csdn.net/weixin_35757704/article/details/129909497 但是因为股票序列本身就是时序数据,因此在计量经济学中很早就以股票数据为例

    2024年02月02日
    浏览(9)
  • 吴恩达《机器学习》5-6:向量化

    吴恩达《机器学习》5-6:向量化

    在深度学习和数值计算中,效率和性能是至关重要的。一个有效的方法是使用向量化技术,它可以显著提高计算速度,减少代码的复杂性。接下来将介绍向量化的概念以及如何在不同编程语言和工具中应用它,包括 Octave、MATLAB、Python、NumPy、C和C++。 一、什么是向量化? 向量

    2024年02月05日
    浏览(11)
  • 深度学习记录--神经网络表示及其向量化

    深度学习记录--神经网络表示及其向量化

    如下图 就这个神经网络图来说,它有三层,分别是 输入层 ( Input layer ), 隐藏层 ( Hidden layer ), 输出层 ( Output layer ) 对于其他的神经网络,隐藏层可以有很多层 一般来说,不把输入层算作一个标准的层,所以这是一个 双层神经网络 对于每一层的每个节点,以logistic为例,每

    2024年02月04日
    浏览(8)
  • 基于轻量化深度学习网络的工业环境小目标缺陷检测

    基于轻量化深度学习网络的工业环境小目标缺陷检测

    源自:控制与决策 作者:叶卓勋   刘妹琴  张森林 工业环境下表面缺陷检测是质量管理的重要一环, 具有重要的研究价值.通用检测网络(如YOLOv4)已被证实在多种数据集检测方面是有效的, 但是在工业环境的缺陷检测仍需要解决两个问题: 一是缺陷实例在表面占比过小, 属于

    2024年02月03日
    浏览(9)
  • (9-5)基于深度强化学习的量化交易策略(OpenAI Baselines +FinRL+DRL+PyPortfolioOpt):深度强化学习算法模型

    本项目的深度强化学习算法的是基于Stable Baselines实现的,Stable Baselines是OpenAI Baselines的一个分支,经过了重大的结构重构和代码清理工作。另外,在库FinRL中包含了经过调优的标准深度强化学习算法,如DQN、DDPG、多智能体DDPG、PPO、SAC、A2C和TD3,并且允许用户通过调整这些深度

    2024年01月25日
    浏览(14)
  • DataWhale 机器学习夏令营第二期——AI量化模型预测挑战赛 学习记录

    DataWhale 机器学习夏令营第二期——AI量化模型预测挑战赛 学习记录

    DataWhale 机器学习夏令营第二期 ——AI量化模型预测挑战赛 已跑通baseline,线上得分 0.51138 , 跑通修改后进阶代码,线上得分 0.34497 按照鱼佬直播分享按照以下常见思路分析机器学习竞赛: 1.1 赛事数据 数据集情况 给定数据集 : 给定训练集(含验证集), 包括10只(不公开)

    2024年02月11日
    浏览(10)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包