(2分钟全面解析)欧美激情在线亚洲一区苹果版v80.19.04.8.59.41-2265安卓网

k1体育麻将胡了

欧美激情在线亚洲一区 最近更新|更新列表|字母检索|下载排行|苹果专区|分类导航

目今位置:首页电脑软件陆虎谈不参加披荆斩棘的原因 → 欧美激情在线亚洲一区 v7.882.3829 安卓漢化版

欧美激情在线亚洲一区

欧美激情在线亚洲一区

  • 电脑版下载
猜你喜欢
标签: 欧美激情在线亚洲一区 黄黄免费网站
详情
先容
猜你喜欢
相关版本

内容详情

欧美激情在线亚洲一区

受 Kimi K2 团队启发,SGLang RL 团队乐成落地了 INT4 量化感知训练(QAT) 流程计划。通过 “训练端伪量化 + 推理端真实量化(W4A16)” 的计划组合,我们实现了媲美 BF16 全精度训练的稳固性与训推一致性,同时 INT4 极致压缩也将 1TB 级超大模子的采样使命容纳于单机 H200 (141G) 显存内,消除了跨机通讯瓶颈,显著提高了 Rollout 效率,为社区提供了兼顾高性能与低本钱的开源参考。

近期,SGLang RL 团队在强化学习的训练稳固性,训练效率与适用场景方面取得了主要希望,详细包括:

Unified multi-turn VLM/LLM 多轮采样范式:我们提供了 VLM 多轮采样范式的实现blog,开发者只需编写一套定制化的 rollout 函数,即可像训练 LLM 一样,轻松开启 VLM 的多轮强化学习。稳固性提升:我们实现了Rollout Router Replay机制,显著提升了 MoE 模子在 RL 训练历程中的稳固性。低精度训练:我们在 RL 场景中乐成实现了全流程 FP8 训练与采样,进一步释放了硬件性能。投契采样:我们在 RL 场景中乐成实践了投契采样,实现了大规模训练的无损加速。

在此基础上,我们更进一步,在 slime 框架上乐成复现并落地了INT4 量化感知训练(QAT)全流程计划。该计划深受 Kimi 团队 K2-Thinking 手艺报告中关于W4A16 QAT (Quantization-Aware Training)实践的启发。为了致敬先行者并回馈社区,本文将详细剖析我们在开源生态中买通全流程的手艺细节,旨在为社区提供一份兼顾稳固性与性能的可落地参考。

焦点收益概览:

突破显存瓶颈:通过权重压缩与低比特量化,使 1TB 级别的 K2 类模子能缩容至单机 H200 (141G) 显存内,阻止了跨机通讯瓶颈。训推一致:训练端使用 QAT 确保权重切合 INT4 漫衍,推理端执行 W4A16 (Weights INT4, activations BF16 ) 盘算;二者均通过 BF16 Tensor Core 举行运算,实现了媲美 BF16 全精度的训推一致性。单机效率倍增:在超大模子场景下,INT4 战略大幅降低了显存与带宽压力,Rollout 效率显著逾越 W8A8 (Weights FP8 , Activations FP8)。

本项目由 SGLang RL 团队、 InfiXAI 团队、蚂蚁集团 Asystem & 阿福 Infra 团队, slime 团队与 RadixArk Miles 团队联合完成。相关功效与 recipe 已经同步到了slime与Miles社区,接待各人试用与孝顺。我们也在更进一步向 MXFP8 与 NVFP4 提倡挑战。同时,由衷谢谢Verda Cloud为本事情提供的盘算资源。

1. 手艺计划概览

1.1 总体流程

我们实现了从训练到推理的完整 QAT INT4 闭环的计划,如下图所示:

图1 QAT INT4 全流程

在QAT 训练阶段,训练侧在维护 BF16 主权重(Master Weights)的基础上,前向撒播通过伪量化(Fake Quantization)引入量化噪声。所谓 “伪”,是指该办法并未真正将 BF16 数据类型转换为低精度的 INT4,而是坚持浮点盘算路径稳固,通过插入量化再反量化(Quant-Dequant)操作来模拟低精度的盘算。

详细而言,高精度权重在经由 “离散化映射到 INT4” 后被连忙还原,虽然其物理存储名堂仍为浮点,但数值精度已实质性降低。这种原值与还原值之间的差别引入了量化误差,在数学上等效于向网络注入了噪声,迫使模子在训练阶段就通过梯度更新去顺应这种精度损失。

反向撒播则使用STE (Straight-Through Estimator)手艺跳过了量化算子的不可导特征。量化历程的焦点操作是 “取整(Rounding)”,其数学形态为蹊径函数,导数在险些所有位置均为 0。这意味着在标准反向撒播历程中,梯度信号传导至此处会因“梯度消逝”而彻底中止,导致底层的主权重无法获得更新。

对此,STE 接纳了 “梯度透传” 战略:在反向撒播盘算时,将取整函数的导数界说为 1(即视为恒等映射)。这一机制相当于在不可导的 “断崖” 上架设了一座桥梁,让梯度能够越过取整层,有用回传至高精度的浮点权重,确保 QAT 训练链路的闭环。

在权重转换阶段,我们将训练收敛的 BF16 权重导出并执行真实量化(Real Quantization),将其转换为推理引擎适配的 INT4 名堂(如 Marlin)。

进入RL Rollout阶段,由 SGLang 加载 INT4 Weights 并执行高效的 W4A16(INT4 权重 x BF16 激活)推理,天生的履历数据(Experience)将回流至第一阶段用于下一轮 RL 训练,从而组成一个自洽的迭代闭环。

1.2 焦点战略选择

在量化名堂上,我们参考Kimi-K2-Thinking选用了INT4 (W4A16)计划。这主要思量到相比 FP4,INT4 在现有硬件(Pre-Blackwell 架构)上的支持越发普遍,并且业界已有成熟高效的 Marlin Kernel 实现。实验批注,在 1×32 量化 Scale 粒度下,INT4 动态规模富足、精度稳固,其性能与生态链路均已高度优化。作为工业界 “足够好(Good Enough)” 的量化标准,INT4 在性能、危害与维护本钱间实现理性平衡。虽然,我们后续也妄想在 NVIDIA Blackwell 系列硬件上进一步睁开 FP4 RL 的探索。

在训练要领方面,我们接纳了Fake Quantization 配合 STE的经典组合。通过维护 BF16 主权重,在前向盘算中模拟量化噪声,并在反向撒播时直通梯度,这种方法最洪流平地包管了低精度训练的收敛性与稳固性。

2. 训练侧:Megatron-LM 的伪量化刷新

2.1 Fake Quantization 与 STE 实现

图2

这一阶段的焦点目的是在训练历程中实时模拟量化误差,迫使模子 “学会” 顺应低精度体现。为此,我们接纳了Fake Quantization机制:只管权重在存储和更新时仍坚持高精度的 BF16 名堂,但在前向撒播的现实盘算中,会被暂时映射到 INT4 的精度规模加入运算。

详细实现上,我们在 megatron/core/extensions/transformer_engine.py 中的 _FakeInt4QuantizationSTE 类构建了焦点逻辑;诜肿樽畲缶灾稻傩卸炕―ynamic Quantization),模拟 INT4 的 [-7, 7] 数值规模及截断操作,但在盘算时仍使用 BF16 类型,仅引入量化误差。

而在要害的反向撒播环节,我们引入了STE机制,确保梯度能够直接穿透量化层,不经修改地回传以更新主权重,从而包管训练的一连性。

2.2 Fake Quantization 比照实验

为了验证 QAT 计划的须要性,并探讨训练与推理精度不匹配带来的详细影响,我们设计了一组消融实验,划分在 “开启 QAT INT4 训练,BF16 Rollout” 和 “关闭 QAT 训练,直接举行 INT4 Rollout” 两种非对称场景下举行了测试,并以对数概率绝对差值(Logprob Abs Diff)作为训推纷歧致的视察指标。

图3 Rollout 侧 BF16,训练侧比照 QAT INT4 效果

图3展示了 “开启 QAT INT4 训练,BF16 Rollout” 的场景(即红线部分)?梢钥吹,纵然我们使用了高精度的 BF16 举行推理,误差依然显著偏高。这是由于在 QAT 历程中,模子权重已经针对 INT4 的量化噪声举行了 “顺应性调解” 或赔偿;推理时若移除量化办法,这种赔偿反而成为扰动,导致特征漫衍偏移(Distribution Shift)。

图4 Rollout 侧 INT4 Weight Only,训练侧比照 QAT INT4 效果

图4则展示了 “关闭 QAT 训练,直接举行 INT4 Rollout” 的场景(即红线部分)。这对应了古板的训练后量化(PTQ)模式。由于模子在训练阶段从未接触过量化噪声,直接将权重压缩至 INT4 不但造成信息的强烈丧失,更导致推理时的特征漫衍与训练时爆发偏移,致使误差随着训练步数泛起震荡上升的趋势。

结论:实验有力地证实,训练端的 Fake Quantization 与推理端的 Real Quantization 必需协同开启。只有当训练时的模拟噪声与推理时的真实量化精度严酷对齐,才华有用抑制训推纷歧致,阻止漫衍偏移,将误差控制在靠近基线的水平,从而真正买通低精度 RL 训练的全流程。

3. 权重更新阶段

3.1 权重流转与动态名堂适配

图5

为了复用 SGLang 在推理端已有的优化,我们直接接纳了其内置的Marlin INT4作为 INT4 的推理计划。然而,这在工程落地时我们遇到了显著的 “名堂鸿沟”:QAT 训练产出的是类似 Hugging face 上的标准名堂权重,而 SGLang 推理引擎的 Marlin Kernel 则强制要求权重必需经由特定的打包(Pack)与重排(Permute)处置惩罚,方能被 Kernel 高效读取。

面临 RL 训练中频仍的权重更新需求,首先需要解决名堂兼容性问题。为此,我们设计了一套逆向的 `restore_weights_before_loading`;せ。该机制使用缓存的 `_original_shapes` 元数据,能够在权重更新行动爆发前,强制将目今内存中的 Marlin 权重名堂还原(Resize)回原始形状。这一设计有用避免了因维度不匹配导致的运行时过失,确保模子能够在标准权重名堂与 Marlin 权重名堂之间平滑切换。别的,我们还在系统层面新增了 `post_process_weights` API,允许控制平面凭证训练节奏显式触发这一流程。

而针对权重加载完成后的名堂适配挑战,我们在 `compressed_tensors_moe.py` 中实现了一套动态权重治理机制。在模子权重加载竣事阶段,系统会自动触发 `process_weights_after_loading` 流程,底层挪用 `gptq_marlin_moe_repack` 与 `marlin_moe_permute_scales` 等算子,在内存中即时将标准权重转换为高度优化的 Marlin 权重名堂,从而最大化推理时的访存与盘算效率。

3.2 权重更新时的量化

图6

进入焦点的Real Quantization环节。差别于训练时的 Fake Quantization,这一步通过代码中的 `int4_block_quantize` 函数执行不可逆的精度压缩操作:基于设定的 Group Size,盘算每组权重的缩放因子(Scale),并将高精度浮点数映射到 `[-7, 7]` 的 INT4 整数域。

为了最大化显存使用率,接着执行位宽打包(Packing)操作。由于 PyTorch 缺乏原生的 INT4 数据类型,我们通过 `pack_int4_to_int32` 函数使用位运算技巧,将 8 个 INT4 数值紧凑地 “压缩” 进 1 个 INT32 整数中(即 `8 × 4 bits = 32 bits`)。最终,这些经由压缩的 Packed Weights 连同 Scale 因子被传输至推理引擎,完成了从 “训练名堂” 到 “推理名堂” 的转换。

4. 推理阶段

图7

极简打包与零开销解包

在 RL 训练的 Rollout 阶段,我们直接复用了 SGLang 优化成熟的 W4A16 量化计划。SGLang 使用紧凑的 INT4 名堂,将两个 4-bit 权重打包进一个字节,相比 BF16 节约了 75% 的内存。在推理时,Triton kernel 通过高效的位移和掩码操作(>> 4 和 & 0xF)快速解包,得益于盘算与 IO 的并行笼罩,该历程险些实现了零特殊延迟。

MoE 算子深度融合

显存优化:SGLang 引入动态的 moe_align_block_size,凭证目今 Token 数目和 Expert 漫衍自动选择 block_size ,将统一 Expert 的 Token 群集并对齐,提升显存带宽使用率。盘算融合:SGLang 引擎除集成磷七效的Marlin INT4实现、还将 gating 部分 fuse 成一个高性能的 kernel,阻止了重复启动 kernel 和读写中心效果。同时,该 INT4 推理计划兼容 GPTQ 和 AWQ 等主流量化名堂,以及支持对称与非对称两种模式。

5. INT4 QAT RL 效果

5.1 训练效果

训练侧

图8 Qwen3-235B-A22B Raw-Reward比照

图9 Kimi-K2-Thinking Raw-Reward比照

上图展示了基于 slime 框架,Qwen3-235B-A22B 与 Kimi-K2-Thinking 模子在 dapo-math-17k 数据集上的训练体现。通过比照实验发明,相较于 “BF16 训 - BF16 推” 及 “BF16 训 - FP8 推”,“BF16 训 - INT4 推” 设置下的 Raw-Reward 仍能坚持稳健增添,且其增添趋势与前两者基本一致,证实晰该计划在训练历程中的有用性。

评估侧

图10 Qwen3-235B-A22B AIME数据集评估比照

图11 Kimi-K2-Thinking AIME数据集评估比照

为了越发严谨地评估模子能力的演进,我们每隔 10 个训练步长就在 aime-2024 基准测试集上举行一次评估。上图给出了 Qwen3-235B-A22B 与 Kimi-K2-Thinking 在差别 RL 训练设置下的模子评分增添轨迹。

实验批注:“BF16 训 - INT4 推” 计划不但在评估分数上泛起出稳健的上升态势,且其性能提升的斜率与最终抵达的峰值,均与 “BF16 训 - BF16 推” 和 “BF16 训 - FP8 推” 计划坚持了较高的重合度。这种高度的一致性有力地证实晰模子在经由低比特量化后,其焦点体现能力并未受损,包管了在大幅降低盘算开销的同时,依然能够实现与全精度推理相媲美甚至完全看齐的泛化体现。

5.2 训推差别

图12

图13

为了直观评估计划效果,我们在 Qwen3-30B 与 Qwen3-235B 模子上举行了的 QAT RL 训练验证。图中 Y 轴反应了训练侧与推理侧输出的 Logprob 绝对差值,数值越低意味一致性越强。实验效果显示,INT4(绿色虚线)与 BF16 基准(红色实线)泛起出惊人的重合度,且显著低于体现出较高误差水平的 FP8(蓝色虚线)。这证实了 INT4 QAT 战略能有用规避 “BF16 训 - FP8 推” 模式下的精度损失,实现与全精度无异的训推体现。

这种一致性背后的缘故原由我们推测为两点:

截断误差抑制:训练侧的 Fake Quantization 将权重限制在 INT4 值域内。这种数值规模的约束,有用降低了矩阵乘法中 Accumulator 累加时因并行盘算顺序不确定性引发的浮点舍入误差(Floating-point Rounding Error),即改善了所谓的“大数加小数”精度丧失问题。高精度盘算:推理侧接纳 W4A16 模式,其焦点盘算全程基于BF16 Tensor Core举行,确保了运算精度与训练阶段的高度对齐。

5.3 Rollout 加速

图14 Qwen3-235B-A22B Rollout 性能比照

从 Qwen3-235B 的 Rollout 性能比照图中可以直寓目到,虽然 INT4(绿色点划线)与 FP8(蓝色虚线)均较 BF16 基线(红色实线)实现了显著加速,但两者相互之间并未拉开重大的性能鸿沟。这一征象主要受限于目今的硬件特征:由于 NVIDIA H 系列 GPU 没有原生的 INT4 Tensor Core, W4A16 计划实质上使用的照旧 BF16 Tensor Core 举行盘算,虽然大幅降低了显存带宽压力,但在吞吐上无法像 W8A8 一样使用原生 FP8 Tensor Core 举行加速从而获得盘算增益。因此,在单步推理耗时上,INT4 仅体现出微弱的优势,与 FP8 基本处于统一性能梯队。

图15 Kimi-K2-Thinking Rollout 性能比照

关于 Kimi-K2-Thinking Rollout 性能的比照。首先视察双节点场景下的通讯瓶颈:图中 FP8(红线)与 INT4(蓝线)泛起出相似的水平。由于 H 系列 GPU 缺乏原生的 INT4 盘算单位,INT4 无法在盘算层面提供加速,因此整体性能依然受限于跨节点的通讯带宽。

然而,绿线所代表的单节点体现展现了 INT4 的真正价值 —— 显存压缩。通过将模子体积减半,我们乐成将 1TB 级别的超大模子完整加载至单机显存中。这直接消除了腾贵的跨机通讯开销,将 Rollout 耗时大幅缩减。这有力地证实,在目今硬件情形下,INT4 QAT 的焦点收益在于通过压缩显存,解锁了高效的单机安排 Rollout 计划。

6. 总结与未来事情

slime 的这项事情不但证实晰在开源生态中复现工业界前沿计划的可行性,也为超大规模模子的低本钱训练探索了新的路径。我们期望这套计划助力更多开发者深入明确 QAT 手艺,并推动其在 RL 场景下的现实落地与普遍应用。

通过在开源框架上的复现,我们验证了 Kimi 团队所提出的 INT4 QAT 计划的有用性:

精度复现:在 slime 的复现实验中,我们同样视察到了 INT4 QAT 的精度优势,实现了与 BF16 基线一致的效果。效率提升:RL Rollout 阶段的吞吐提升显著,验证了低比特量化在 RL 场景下的重大价值。

未来事情:

训练端效率优化:现在,由于在训练历程中引入了 QAT Fake Quantization 盘算,带来了较大的特殊性能开销,导致逊з度显着低于 BF16 模式。这在一定水平上折损了 Rollout 阶段带来的端到端性能收益。我们后续妄想提出一套全新的优化计划,旨在解决这一训练侧的效率瓶颈,实现全链路的加速。推理侧 FP4:随着 NVIDIA Blackwell 架构的逐步普及,我们将起劲探索 FP4 精度在 RL 训练与推理中的应用可行性,以期进一步挖掘硬件潜力。

slime 在 QAT INT4 的实验不但证实晰在开源生态中复现工业界前沿计划的可行性,也为超大规模模子的低本钱训练探索了新的路径。我们期望这套计划助力更多开发者深入明确 QAT 手艺,并推动其在 RL 场景下的现实落地与普遍应用。

致谢

SGLang RL Team: Ji Li, Yefei Chen, Xi Chen, BBuf

InfiXAI Team: Mingfa Feng, Congkai Xie, Shuo Cai

蚂蚁集团 Asystem & 阿福 Infra 团队:Yanan Gao, Zhiling Ye, Yuan Wang, Xingliang Shi

RadixArk Miles Team: Chenyang Zhao, Yueming Yuan, Jiajun Li, Yusheng Su, Mao Cheng, Tom, Banghua Zhu

slime Team: Zilin Zhu, Chengxing Xie, Lei Li, Haisha Zhao

相关版本

    多平台下载

    • PC版

      欧美激情在线亚洲一区 v5.607.2157 安卓免費版

    • Android版

      欧美激情在线亚洲一区 v6.527.5980.619456 安卓漢化版

    审查所有0条谈论>网友谈论

    揭晓谈论

    (您的谈论需要经由审核才华显示) 网友粉丝QQ群号:766969941

    审查所有0条谈论>>

    相关软件
    中国娇小与黑人巨大交 狂揉 偷拍网偷拍 日韩精品你懂的在线 你真紧今晚我让你爽个够视频 性纯肉无码无遮挡全彩 欧美三级免费A片 26uuu国产1000部 浣肠罚 分腿 惩戒室调教sm 欧美纯黄色视频 亚洲激情 视频一区 四川嫖妓普通话对白 免费看www网站入口 91吃瓜视频最新版下载 久久久久久免费大片 欧美日韩国产精品免费观看 涩涩999网站在线观看 亚洲一区二区 自拍 国产AV之国产系列 国精产品一二区二区三区在线 精品伊甸园色园 在线观看黄Av免费网站 AV片网址 欧美日韩免费高清视频在线播放 特级婬片日本高清视频在线观看 妓女在线网 无码的免费的毛片喷水视频 十八禁视频下载 爱情岛论语亚洲入口 毛片特级殴美大黄片 ure日本 乱色熟女综合一区二区三区 亚洲色图日韩在线 超碰在线国产com 美女99黄网免费视频 91人妻自拍论坛 黄片资源 av青青在线观看 gav加勒比视频在线观看 白丝扣 caopeng在线视 国外黄视频网站 免费观看在线视频A片 求一黄色不卡网址 美女被操视频软件下载 欧美一级牲交视频在线观看 后仰式爆喉视频 色综合欧美一区二区 黄色视频免费玩站 国产aV熟妇人震精品一品二区 蛋壳姬 国产抖音走光视频 欧美国产巨大白寡妇在线 jiujiure在线观看精品 欧美在线观看黄色视频 CO∩Xingaiwww 免费看美女被操网站 一级女人18毛片免费看深夜 成人啪啪漫画 欧美色图片 女生逼逼黄色视频 欧美XXXAV 【日本萝莉-中文字幕】老婆太性感了欲望风情看了就挡不住想狠狠 男男帅哥互c互慰 精灵宝可梦黄游 欧美性爱免费在线观看电影 小志头一次大战胡秀 毛片毛片毛片毛片毛片毛片毛片毛片毛片 扒开女生的内裤亲吻app 欧美一区二区日韩 欧美性爱视频在线播 欧美一级片一区 国产免费福利资源站视频 换夫妻是一间房还是两间 JiZzJiZZ国产免费 黄色视频强奸乱伦 A片无码视频在线观看国产 一级做a爱过程免费视频美国 免费一级婬片A片在线 com. 欧美精品 视频 在线 人人人摸 女性向黄动漫 美女大Bxxxxn内射 a毛片网址 女人被狂躁到高潮20次 免费专区 - 色哟哟 日韩一区二区色桃花 完全免费在线看的avv 激情亚州小说图片 惩罚女生打光屁股网站 亚洲国产成AV人天堂无码 人人干、人人操、人人插 97国产情侣酒店视频 18出禁止看的啪视频网站在线 猎奇小屋官方下载安装 欧美美女三级 国产在线不卡的毛毛片 黄网站视频在线观看免费 亚洲精品5555在线 美国精品偷拍网 亚洲图片欧美色视频 欧美牲交A欧美在线操屁眼 免费真实处破视频在线观看 人人操狠狠操狠狠拍拍狠狠拍狠狠拍 国产精品人成免费网址 黑土被狂揉下部 羞羞 91 综合 在线 亚洲A级视频 pinkloving粉色唐伯虎 白丝夹摇 13小箩利洗澡无码视频 国产强奸在线观看小视频 免费观看黄片a片插逼视频 涩淫视频 婷婷大伊香蕉五月天视频 欧美网站在线观看。 免费看羞羞漫画的网站 超碰9|第一页 3P人妻
    热门网络工具
    网站地图