searchusermenu
  • 发布文章
  • 消息中心
点赞
收藏
评论
分享
原创

模型适配流程概述

2024-05-11 09:46:16
209
0

模型适配流程概述

代码修改

目前torch_npu已经更新足够大部分不需要修改一些代码只需要main函数添加如下代码就可以跑起来

import torch
import torch_npu
import deepspeed
import deepspeed_npu
from torch_npu.contrib import transfer_to_npu

note

一般module 'torch._C' has no attribute '_cuda_setDevice'

就是没有添加from torch_npu.contrib import transfer_to_npu导致硬件调用npu

其次修改模型前向传播文件 modeling_telechat.py

修改class FlashSelfAttention(torch.nn.Module):

使用torch_npu.npu_fusion_attention 替换flash_attn_unpadded_func函数

atten_mask_ = torch.triu(torch.ones(q.shape[1], q.shape[1]),1).to(torch.float)
        atten_mask_npu = atten_mask_.clone().bool().to(q.device)
        head_num = q.shape[2]
        output = torch_npu.npu_fusion_attention(
                    q, 
                    k, 
                    v, 
                    head_num, 
                    "BSND", 
                    keep_prob=1.0, 
                    atten_mask=atten_mask_npu, 
                    scale=1.0 / math.sqrt(q.shape[-1]),
                    pre_tockens=q.shape[1],
                    next_tockens=0,
                    inner_precise=0)[0]

性能优化

华为社区文档生成mask代码

atten_mask_npu= torch.from_numpy(np.triu(np.ones([max_seqlen_q, max_seqlen_k]), k=1))

全部使用torch函数可以节省内存从一块地址拷贝到另一块地址的时间torch.from_numpy产生拷贝时间

atten_mask_ = torch.triu(torch.ones(q.shape[1], q.shape[1]),1).to(torch.float)

torch_npu.npu_fusion_attention支持两种模式 tnd bsnd

tnd :

t就是total tokens of batch,相当于b乘s,n就是head_num, 注意力的多头个数,d就是隐藏层维度大小除以head_num后的数值

bsnd :

b是batchsize,s是sequence length tokens长度

profiling采集

profiler_level = Constant.LEVEL2 采集等级建议使用LEVEL2采集数据最多等级

torch_npu.profiler._ExperimentalConfig(profiler_level = Constant.LEVEL0, aic_metrics = Constant.AicMetricsNone, l2_cache = False, record_op_args = False)

wait, skip_first, warmup,三个参数都是不采集stepactive采集steprepeat重复采集activate

torch_npu.profiler.schedule (wait, active, warmup = 0, repeat = 0, skip_first = 0)

数据格式

语言模型数据一般分为预训练数据微调数据预训练纯文本微调问答

LLM训练方法都是预测下一个token两种训练方法都需要token拼接长度用户指定max_length长度一个max_lengthtokens序列就是一个samples

预训练就是简单文本token拼接

微调是将问答对添加问题回答已经问答结束特殊token例如<_user>天翼云公司英文名<_bot>state cloud.<end>然后多个对话拼接长度max_lengthtoken序列不足位置pad_token 补齐

训练方法区别预训练计算全部token损失全参微调统计答案部分损失使用mask盖住问题的损失)

0条评论
0 / 1000
张****佳
7文章数
1粉丝数
张****佳
7 文章 | 1 粉丝
原创

模型适配流程概述

2024-05-11 09:46:16
209
0

模型适配流程概述

代码修改

目前torch_npu已经更新足够大部分不需要修改一些代码只需要main函数添加如下代码就可以跑起来

import torch
import torch_npu
import deepspeed
import deepspeed_npu
from torch_npu.contrib import transfer_to_npu

note

一般module 'torch._C' has no attribute '_cuda_setDevice'

就是没有添加from torch_npu.contrib import transfer_to_npu导致硬件调用npu

其次修改模型前向传播文件 modeling_telechat.py

修改class FlashSelfAttention(torch.nn.Module):

使用torch_npu.npu_fusion_attention 替换flash_attn_unpadded_func函数

atten_mask_ = torch.triu(torch.ones(q.shape[1], q.shape[1]),1).to(torch.float)
        atten_mask_npu = atten_mask_.clone().bool().to(q.device)
        head_num = q.shape[2]
        output = torch_npu.npu_fusion_attention(
                    q, 
                    k, 
                    v, 
                    head_num, 
                    "BSND", 
                    keep_prob=1.0, 
                    atten_mask=atten_mask_npu, 
                    scale=1.0 / math.sqrt(q.shape[-1]),
                    pre_tockens=q.shape[1],
                    next_tockens=0,
                    inner_precise=0)[0]

性能优化

华为社区文档生成mask代码

atten_mask_npu= torch.from_numpy(np.triu(np.ones([max_seqlen_q, max_seqlen_k]), k=1))

全部使用torch函数可以节省内存从一块地址拷贝到另一块地址的时间torch.from_numpy产生拷贝时间

atten_mask_ = torch.triu(torch.ones(q.shape[1], q.shape[1]),1).to(torch.float)

torch_npu.npu_fusion_attention支持两种模式 tnd bsnd

tnd :

t就是total tokens of batch,相当于b乘s,n就是head_num, 注意力的多头个数,d就是隐藏层维度大小除以head_num后的数值

bsnd :

b是batchsize,s是sequence length tokens长度

profiling采集

profiler_level = Constant.LEVEL2 采集等级建议使用LEVEL2采集数据最多等级

torch_npu.profiler._ExperimentalConfig(profiler_level = Constant.LEVEL0, aic_metrics = Constant.AicMetricsNone, l2_cache = False, record_op_args = False)

wait, skip_first, warmup,三个参数都是不采集stepactive采集steprepeat重复采集activate

torch_npu.profiler.schedule (wait, active, warmup = 0, repeat = 0, skip_first = 0)

数据格式

语言模型数据一般分为预训练数据微调数据预训练纯文本微调问答

LLM训练方法都是预测下一个token两种训练方法都需要token拼接长度用户指定max_length长度一个max_lengthtokens序列就是一个samples

预训练就是简单文本token拼接

微调是将问答对添加问题回答已经问答结束特殊token例如<_user>天翼云公司英文名<_bot>state cloud.<end>然后多个对话拼接长度max_lengthtoken序列不足位置pad_token 补齐

训练方法区别预训练计算全部token损失全参微调统计答案部分损失使用mask盖住问题的损失)

文章来自个人专栏
AI技术分享
7 文章 | 1 订阅
0条评论
0 / 1000
请输入你的评论
0
0