ubuntu下torch和libtorch和onnx和tvm转换操作_torch tvm-程序员宅基地

技术标签: ubuntu  深度学习  pytorch  

环境配置

环境配置的过程包括:
配置pytorch1.4以及pytorch1.0虚拟环境
源码编译llvm
源码编译tvm
源码编译libtorch
具体内容:
配置pytorch1.4虚拟环境:
由于Tvm目前仅支持pytorch1.4的环境,因此模型的转换需要在1.4的环境下进行。
安装pytorch1.4虚拟环境,要求已经装过anaconda,anaconda安装可以参考:

conda create -n pytorch1.4 python=3.7
source activate pytorch1.4 #进入虚拟环境
conda install pytorch==1.4.0 torchvision cudatoolkit=10.0 -c pytorch #安装pytorch1.4
#然后安装tvm需要的包
pip install decorator
pip install antlr4-python3-runtime

以上是通过在线安装,在线安装可能比较慢,可以通过添加其它的镜像源进行安装,具体操作:

#显示已经存在的镜像源
conda config --show channels

#添加清华镜像源
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge 
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/
# 【添加完毕一定要设置一下】设置搜索时显示通道地址
conda config --set show_channel_urls yes

#添加中科大镜像源
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/main/
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/conda-forge/
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/msys2/
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/bioconda/
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/menpo/
 # 【添加完毕一定要设置一下】设置搜索时显示通道地址
conda config --set show_channel_urls yes

#删除指定镜像源
conda config --remove channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
#还原原始镜像源
conda config --remove-key channels

配置pytorch1.0虚拟环境:
由于使用的libtorch是1.0的版本,因此要找到对应的pytorch1.0版本进行.pth模型转为.pt模型:

conda create -n pytorch1.0 python=3.7
source activate pytorch1.0 #进入虚拟环境
conda install pytorch==1.0.0 torchvision cudatoolkit=10.0 -c pytorch #安装pytorch1.0

源码编译llvm:
编译llvm用于cpu优化,可以选择不安装。
存在两种安装方式:手动安装、自动安装
手动安装:将llvm安装到指定位置

git clone https://gitee.com/mirrors/LLVM.git
cd LLVM && mkdir build && cd build
cmake -DCMAKE_BUILD_TYPE=Release ../llvm
make -j4

自动安装:将llvm安装到系统里面(推荐此操作,后面有些过程不需要)

sudo apt search llvm
sudo apt install llvm-6.0

源码编译Tvm:

cd ~/../TVM   #进入自己想要安装的文件内
git clone --recursive https://github.com/apache/incubator-tvm tvm
#切换到经验证有效的版本中,重要
git checkout 639358e8da602a6f43c7f08afd951fc4368ab421
cd tvm && mkdir build && cd build
## 从 tvm目录下的cmake 目录下将 config.cmake 拷贝到新建的 build 目录下,
## 然后打开config.cmake文件,进行下面操作
#如果是进行的手动编译llvm的,执行下面操作:
set(USE_CUDA OFF) -> set(USE_CUDA ON)
set(USE_LLVM OFF) -> set(USE_LLVM ~/LLVM/build/bin/llvm-config)
#~/LLVM/build/bin/llvm-config为编译llvm的地方
#如果是自动编译llvm,执行以下操作:
set(USE_CUDA OFF) -> set(USE_CUDA ON)
set(USE_LLVM OFF) ->set(USE_LLVM ON)  #系统内自动寻找
set(USE_OPENMP none) ->set(USE_OPENMP gnu)
#然后进行编译
cmake ..
make -j8

之后再修改系统环境配置文件:

sudo gedit ~/.bashrc
export TVM_HOME=~/tvm   #~/tvm编译地址
export PYTHONPATH=$TVM_HOME/python:$TVM_HOME/topi/python:${PYTHONPATH}
source ~/.bashrc

源码编译libtorch1.0:
libtorch是为了将python下的torch模型部署到c++中使用,必须要明确的是:源码编译的libtorch版本要和转换torch到libtorch所在的pytorch的版本一致,目前libtorch1.2或者1.4都存在内存泄漏问题,因此建议配置的libtorch和pytorch的环境为1.0
以下是源码编译libtorch1.0的环境

git clone --recursive git://github.com/pytorch/pytorch
cd pytorch
git checkout v1.0.0
git submodule sync
git submodule update --init --recursive
#然后创建一个pytorch1.0环境用于安装libtorch的相关python内容,目的是为了不和其它虚拟环境相冲突
conda create -n libtorch1.0 python=3.6
source activate libtorch1.0
conda install numpy pyyaml mkl==2019.1 mkl-include==2019.1 setuptools cmake cffi typing
conda install -c mingfeima mkldnn
conda install -c pytorch magma-cuda100
#然后在libtorch1.0的虚拟环境中继续编译安装libtorch
python setup.py clean
export CMAKE_PREFIX_PATH=${CONDA_PREFIX:-"$(dirname $(which conda))/../"}
python setup.py install
## 编译好的 libtorch 在 $PYTORCH_HOME/torch/lib/tmp_install 里面 或者 在 $PYTORCH_HOME/torch 里的lib bin include share test 共五个文件作为第三方库

torch->libtorch

将训练好的torch模型.pth转为libtorch模型,并部署在c++中使用.
torch模型.pth转libtorch模型.pt需要在pytorch1.0虚拟环境下进行,因此要先进入pytorch1.0虚拟环境。
执行以下python代码进行转换:

"""
进行模型转换,torch->onnx->tvm
环境要求:tvm转torch模型必须在pytorch1.4的环境下进行,1.4下可以进行torch->onnx->tvm,
同时也可以进行torch->libtorch转换,但是c++中源码编译的libtorch库要和torch->libtorch转换时使用的pytorch版本一致
由于c++工程中使用的libtorch库是1.0,因此torch->libtorch的过程也要在pytorch1.0环境下进行
"""
import numpy as np
from pynvml import *     #pip install nvidia-ml-py3,显存监控
import torch.onnx
import torch.backends.cudnn as cudnn
from models_class.pose_resnet import *
import torchvision.transforms as transforms
from PIL import Image

# 加载torch模型进行测试
def load_torch_model_test(img_path,model_path):
    # 初始化模型
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    cudnn.benchmark = True
    model = get_pose_net()
    model = model.cuda()
    model.to(device)

    # 加载模型权重
    model.load_state_dict(torch.load(model_path)['state_dict'])
    # 进行torch模型测试
    test_trans = transforms.Compose([transforms.Resize((256, 256)),
                                     transforms.ToTensor(),
                                     transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])

    img = Image.open(img_path).convert('RGB')
    img = test_trans(img)
    # img = Image.fromarray(np.expand_dims(img, 0))  # 扩张0维度
    imgblob = img.unsqueeze(0)  # tensor禁止进行维度删除
    imgblob = torch.autograd.Variable(imgblob).cuda()  # 对输入进行数据格式转换,np.array->tensor.cuda.float

    torch.no_grad()  # 不进行梯度计算
    model.eval()  # 使用验证模式
    heatmap = model(imgblob)
    print(heatmap)
    return model

# 将torch模型转为libtorch模型
def gen_torch_to_libtorch(model_path, save_path):
 # 初始化模型
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    cudnn.benchmark = True

    #加载模型结构
    # model = get_pose_net()  #加载网络架构,不同的网络此处不同,此处用于关键点网络结构加载。
    # 加载的原因是:训练模型的时候使用model.module.state_dict(),仅保存模型参数,因此需要加载模型结构
    model = resnet50(class_num=2) #加载网络架构:slowfastnet
    model.to(device)
    model.cuda()

    # # 加载模型权重
    #第一种方式:
    # model.load_state_dict(torch.load(model_path)['state_dict']) #训练时使用以下形式进行保存模型权重以及相关参数
    # 使用原因:
    # 保存模型的状态,可以设置一些参数,后续训练可以使用,例如中断后可以继续训练
    # state = {'epoch': epoch + 1,  # 保存的当前轮数
    #          'state_dict': mymodel.state_dict(),  # 训练好的参数
    #          'optimizer': optimizer.state_dict(),  # 优化器参数,为了后续的resume
    #          'best_pred': best_pred  # 当前最好的精度
    #             , ...., ...}
    # 保存模型到checkpoint.pth.tar
    # torch.save(state, ‘checkpoint.pth.tar’)
    #加载模型参数
    # checkpoint = torch.load('model_best.pth.tar')
    # model.load_state_dict(checkpoint['state_dict'])  # 模型参数
    # optimizer.load_state_dict(checkpoint['optimizer'])  # 优化参数
    # epoch = checkpoint['epoch']  # epoch,可以用于更新学习率等

    #第二种方式:
    model.load_state_dict(torch.load(model_path))
    #原因是:
    #在训练的时候是已下面的形式进行保存了模型参数:
    # 保存模型到checkpoint.pth.tar
    # torch.save(model.module.state_dict(), ‘checkpoint.pth.tar’)
    # 对应的加载模型方法为(这种方法需要先反序列化模型获取参数字典,因此必须先load模型,再load_state_dict):
    # mymodel.load_state_dict(torch.load(‘checkpoint.pth.tar’))

    # 第三种方式:
    #model = torch.load(‘checkpoint.pth.tar’)
    #原因是:
    #在训练的时候是已下面的形式进行保存,将模型参数以及网络结构保存在一起:
    # 保存
    #torch.save(model,‘checkpoint.pth.tar’)
    # 加载
    # model = torch.load(‘checkpoint.pth.tar’)
    #在进行torch转libtorch时,此种方式可能再设定GPU模式
    #model.to(device)
    #model.cuda()

    # 将torch转为libtorch并保存
    #不同的网络输入数据大小维度不同,要注意
    # example = torch.rand(1, 3, 56, 56).cuda()  # 任意设定一个输入,输入数据的大小为网络输入的大小[n,c,h,w]
    example = torch.rand(1, 3, 1, 112, 112).cuda()  # 任意设定一个输入,输入数据的大小为网络输入的大小[b,c,n,h,w]

    traced_script_module = torch.jit.trace(model, example).eval()
    traced_script_module.save(save_path)

if __name__ == "__main__":

    #显存监控
    GPU_USE=0
    nvmlInit() #初始化
    handle = nvmlDeviceGetHandleByIndex(GPU_USE) #获得指定GPU的handle
    info_begin = nvmlDeviceGetMemoryInfo(handle) #获得显存信息

    #路径设置
    img_str ="/data_1/Working/project/torch-onnx-tvm/data/[email protected]"
    model_path = "/data_1/Working/project/torch-onnx-tvm/libtorch/model/carkeypoints/carkeypoints.pth"
    libtorch_save_path = "/data_1/Working/project/torch-onnx-tvm/libtorch/model/carkeypoints/carkeypoints.pt"
    #进行转换
    gen_torch_to_libtorch(model_path,libtorch_save_path)
    # #输出显存使用mb
    info_end = nvmlDeviceGetMemoryInfo(handle)
    print("-"*15+"TORCH GPU MEMORY INFO"+"-"*15)
    print("       Memory Total: "+str(info_end.total//(1024**2)))
    print("       Memory Free: "+str(info_end.free//(1024**2)))
    print("       Memory Used: "+str(info_end.used//(1024**2)-info_begin.used//(1024**2)))
    print("-" * 40)

在以上转换torch模型.pth到libtorch模型.pt后,就可以在c++工程中使用:
在使用的时候需要将编译的libtorch1.0链接到工程中,即将$PYTORCH_HOME/torch/lib/tmp_install 里面的文件夹"include"、“lib”、“share” 放到工程链接的第三方库3rdparty/libtorch下,然后需要在
CMakeLists.txt文件中进行链接libtorch库:
CMakeLists.txt

cmake_minimum_required(VERSION 3.13)
project(libtorch)

set(CMAKE_CXX_STANDARD 14)
set(TORCH_ROOT ${
    CMAKE_SOURCE_DIR}/3rdParty/libtorch) #libtorch所在的路径
set(Torch_DIR ${
    TORCH_ROOT}/share/cmake/Torch)  #设置libtorch路径
find_package(Torch REQUIRED) #自动寻找torch的包
find_package(OpenCV REQUIRED)
#message(STATUS "    torch lib : ${TORCH_LIBRARIES} ")
include_directories(/usr/local/cuda/include)
#include_directories(${
      TORCH_ROOT}/include)
link_directories(usr/local/cuda/lib64)
#link_directories(${
      TORCH_ROOT}/lib)
add_executable(libtorch main.cpp carkeypoints.cpp)
target_link_libraries(libtorch ${
    OpenCV_LIBS} ${
    TORCH_LIBRARIES})

以使用车辆关键点检测为例介绍c++中部署libtorch模型的后处理:
common.h

#ifndef LIBTORCH_COMMON_H
#define LIBTORCH_COMMON_H

#include <torch/script.h> // One-stop header.
#include <opencv2/opencv.hpp>
#include "c10/cuda/CUDAException.h"
#include "c10/cuda/CUDAFunctions.h"
#include <iostream>
#include <algorithm>
#include <string>
#include <vector>
#include <dirent.h>
#include <fstream>
#include <sys/types.h>
#include <sys/stat.h>
#include <sstream>
#include <iomanip>
#include <stdio.h>
using namespace cv;
using namespace torch;
using namespace std;

#include <iterator>
#include <algorithm>
#include <cuda_runtime.h>
#include <chrono>
#endif //LIBTORCH_COMMON_H

carkeypoints.h

#ifndef LIBTORCH_CARKEYPOINTS_H
#define LIBTORCH_CARKEYPOINTS_H
#include "common.h"
#define PROCESS_FAIL          -1          // 执行失败
#define PROCESS_SUCCESS        0          // 执行正常
#define IMAGE_ERROR            1          // 图像错误
#define MODEL_ERROR            2          // 模型错误
#define DRAW_PIC_KPT
struct sCarkeypointOutput{
    
    std::vector<std::pair<cv::Point,double>> vAllKeypoints;
};
struct sCarkeypointInput{
    
    cv::Mat srcImage;
    cv::Rect obj;
};
class carkeypoints{
    
public:
    carkeypoints();
    ~carkeypoints();
    static carkeypoints& ins();
    int init(std::string& model_path,int GPUID);
    int process(sCarkeypointInput& input,sCarkeypointOutput& output);
private:
    std::shared_ptr<torch::jit::script::Module> kpt_net;
    int width_ = 256;
    int height_= 256;
    cv::Scalar mean=cv::Scalar(0.485, 0.456, 0.406);
    const float std[3]={
    0.229, 0.224, 0.225};
};
#endif //LIBTORCH_CARKEYPOINTS_H

carkeypoints.cpp

/*torch模型pth 转为 libtorch模型pt 后 在c++中部署前向之 人体姿态估计-汽车关键点*/
///测试结果:显存占用670mb
///耗时:1.05s 效果较差

#include "carkeypoints.h"

//#define USE_TORCH

carkeypoints::carkeypoints() {
    

}
carkeypoints::~carkeypoints() {
    

}
carkeypoints& carkeypoints::ins() {
    
    static thread_local carkeypoints obj;
    return obj;
}
int carkeypoints::init(std::string &model_path,int GPUID) {
    
    ///设置gpu,有两种方式
    ///第一种:
    int ret = setenv("CUDA_VISIBLE_DEVICES", std::to_string(GPUID).c_str(), 1);
    if(ret !=0)
    {
    
        throw std::runtime_error("set CUDA_VISIBLE_DEVICES failed");

    }
    c10::cuda::set_device(GPUID);
//    ///第二种:
//    torch::DeviceType device_type; //设置Device类型
//    device_type = torch::kCUDA;  //torch::kCUDA  and torch::kCPU
//    torch::Device device(device_type, GPUID);

    ///加载模型
    const std::string model = model_path+"/"+"carkeypoints.pt";
    if(access(model.c_str(),F_OK)==-1)
    {
    
        return MODEL_ERROR;
    }
    kpt_net = torch::jit::load(model,torch::kCUDA); ///可以选择在cpu中加载模型也可以选择在GPU中加载模型,但是最后都要将加载的模型再放到GPU中
    ///或者
//    kpt_net = torch::jit::load(model,torch::kCPU) ///使用CPU加载
    ///如果选择第一种设置gpu,则选择下面的方式进行将model导入GPU
    kpt_net->to(at::kCUDA);
    ///如果选择第二种设置gpu,则选择下面的方式进行将model导入GPU
//    kpt_net->to(device);
}

int carkeypoints::process(sCarkeypointInput &input, sCarkeypointOutput &output) {
    
    cv::Mat car=input.srcImage(input.obj).clone();
//    std::cout<<"size 0:"<<std::to_string(car.channels())<<std::endl;
    cv::resize(car,car,cv::Size(width_,height_));
//    cv::cvtColor(car,car,cv::COLOR_BGR2RGB);  ///是否需要进行图片格式转换,视训练的时候而定,如果训练的时候进行了转换,那么在c++中也需要转换。无论在python还是c++中,cv读入的格式为BGR
    car.convertTo(car,CV_32FC3,1.0/255);    ///进行归一化
    car=car-cv::Scalar(0.485, 0.456, 0.406);  ///进行去均值
    std::vector<cv::Mat> split_mat;
    cv::split(car,split_mat);
    split_mat[0]/=std[0];
    split_mat[1]/=std[1];
    split_mat[2]/=std[2];
    cv::merge(split_mat,car);
//    std::cout<<"size 1:"<<std::to_string(car.dims)<<std::endl;
    ///转为cpu内的tensor
    auto car_tensor_cpu = torch::CPU(torch::kFloat32).tensorFromBlob(car.data,{
    1,height_,width_,3});///图片的维度为:(n,h,w,c)
//    std::cout<<"car tensor 0:"<<std::to_string(car_tensor_cpu.size(0))<<std::endl;
//    std::cout<<"car tensor 1:"<<std::to_string(car_tensor_cpu.size(1))<<std::endl;
//    std::cout<<"car tensor 2:"<<std::to_string(car_tensor_cpu.size(2))<<std::endl;
//    std::cout<<"car tensor 3:"<<std::to_string(car_tensor_cpu.size(3))<<std::endl;
//    std::cout<<"*******************************************"<<std::endl;
//    auto car_tensor_cpu = torch::from_blob(car.data,{1,height_,width_,3},at::kFloat);///图片的维度为:(n,h,w,c)
    ///进行维度调整以适应网络输入
    car_tensor_cpu=car_tensor_cpu.permute({
    0,3,1,2});  ///此操作用于调整tensor的维度和torch保持一致,和keras中的transpose保持一致
//    std::cout<<"car tensor 0:"<<std::to_string(car_tensor_cpu.size(0))<<std::endl;
//    std::cout<<"car tensor 1:"<<std::to_string(car_tensor_cpu.size(1))<<std::endl;
//    std::cout<<"car tensor 2:"<<std::to_string(car_tensor_cpu.size(2))<<std::endl;
//    std::cout<<"car tensor 3:"<<std::to_string(car_tensor_cpu.size(3))<<std::endl;
    ///将tensor送到gpu内运算,和net在同一个设备内
    auto car_tensor_gpu = torch::autograd::make_variable(car_tensor_cpu, false).to(at::kCUDA);
    std::chrono::steady_clock::time_point t0 = std::chrono::steady_clock::now();
    auto heat_map_tensor = kpt_net->forward({
    car_tensor_gpu}).toTensor();  ///一个输出可以直接转为tensor ,获得的是在GPU上
    std::chrono::steady_clock::time_point t1 = std::chrono::steady_clock::now();
    std::chrono::duration<double > time_used = std::chrono::duration_cast<std::chrono::duration<double >>(t1-t0);
    std::cout<<"forward use time: "<<std::to_string(time_used.count())<<" seconds"<<std::endl;

#ifdef USE_TORCH

    ///对输出的tensor进行处理使用两种方法
    ///第一种先获得热点坐标tensor然后在转为vector
    auto heat_map_tensor_view = heat_map_tensor.contiguous().view({
    heat_map_tensor.size(0),heat_map_tensor.size(1),heat_map_tensor.size(2)*heat_map_tensor.size(3)}).toBackend(at::Backend::CPU);
    ///.contiguous()是使得tensor的内存连续,然后才能view改变其形状,判断是否内存连续可以使用heat_map_tensor.is_contiguous()
    /// 一般进行了维度改变的tensor.permute(),都需要进行contiguous
    //    auto heat_map_tensor_view = heat_map_tensor.contiguous().view({heat_map_tensor.size(0),heat_map_tensor.size(1),heat_map_tensor.size(2)*heat_map_tensor.size(3)});
//    std::cout<<"heat_map_tensor_view:"<<std::to_string(heat_map_tensor_view.size(0))<<std::endl;
//    std::cout<<"heat_map_tensor_view:"<<std::to_string(heat_map_tensor_view.size(1))<<std::endl;
//    std::cout<<"heat_map_tensor_view:"<<std::to_string(heat_map_tensor_view.size(2))<<std::endl;
//    auto max_pt = torch::max(heat_map_tensor_view[0],1); ///输出为元祖两维{1*c,1*c}={}
    auto max_pt = torch::max(heat_map_tensor_view,2); ///输出为元祖两维{1*c,1*c}={}
    auto score_tensor = std::get<0>(max_pt).view(-1); ///获得每个点的置信度,tensor type:float 需要从(1,8)->(8)
//    auto score_tensor = std::get<0>(max_pt); ///获得每个点的置信度,需要从(1,8)->(8)
//    std::cout<<score_tensor<<std::endl;
    auto index_tensor = std::get<1>(max_pt).view(-1).to(kFloat);///获得每个最大点的位置index,tensor type:long 需要从(1,8)->(8),并且也要将type:kLong->kFloat
    ///如若使用python torch中的API:方法- torch::apiname
//    for(size_t j=0;j<index_tensor.size(0);j++)
//    {
    
//        std::cout<<"index_tensor:"<<std::to_string(index_tensor[j].item().toInt())<<std::endl; ///输出显示每一个元素
//    }
//    std::cout<<index_tensor<<std::endl;
//    auto y_float = index_tensor/heat_map_tensor.size(3); ///由于index_tensor type:kLong 因此返回的tensor类型为kLong,需要将其转换kFloat.
    auto y_float = torch::div(index_tensor,heat_map_tensor.size(3));
/// 在c++中torch中的数据类型long.int.float.double变为kLong.kInt.kFloat.kDouble等,转换方式仅有tensor.to(kLong)没有 tensor.kLong()这种
//    std::cout<<y_float<<std::endl;
    auto index_max_y = torch::floor(y_float).to(kInt); ///获得每一个点的坐标值y
//    std::cout<<index_max_y<<std::endl;
//    auto index_max_y = (std::get<1>(max_pt)/heat_map_tensor.size(3)); ///获得每一个点的坐标值y
    auto index_max_x = std::get<1>(max_pt).view(-1).to(kInt)-(index_max_y*heat_map_tensor.size(3)+1);///获得每个点的坐标值x
//    std::cout<<index_max_x<<std::endl;
    ///将tensor转为vector,使用指针进行
    std::vector<float> res_score(score_tensor.data<float>(),score_tensor.data<float>()+score_tensor.numel());
    std::vector<int> res_index_x(index_max_x.data<int>(),index_max_x.data<int>()+index_max_x.numel());///index_max_x.numel()是指tensor所有元素的个数
    std::vector<int> res_index_y(index_max_y.data<int>(),index_max_y.data<int>()+index_max_y.numel());
    ///计算关键点的位置
    for(size_t i=0;i<res_score.size();i++)
    {
    
        output.vAllKeypoints.push_back({
    cv::Point((int)(res_index_x[i]*4*input.obj.width/width_+0.5)+input.obj.x,(int)(res_index_y[i]*4*input.obj.height/height_+0.5)+input.obj.y),res_score[i]});
    }

#else
    ///第二种先直接将tensor->mat,然后再对MAT直行操作
    ///以下这一步必须进行,将tensor数据从gpu转到cpu中
    heat_map_tensor = heat_map_tensor.contiguous().toBackend(at::Backend::CPU);///tensor地址可能不连续需要将数据地址放在一个连续块,然后再转到cpu中
    std::vector<cv::Mat> kpt_mat;
    for(int i=0;i<heat_map_tensor.size(1);i++)
    {
    
        kpt_mat.push_back(cv::Mat(heat_map_tensor.size(2),heat_map_tensor.size(3),CV_32FC1,heat_map_tensor.data<float>()+i*heat_map_tensor.size(2)*heat_map_tensor.size(3))); ///heat_map_tensor.data<float>()是一个tensor的float指针
    }
    double minVal,maxVal;
    cv::Point minLoc,maxLoc;
    for(int i=0;i<kpt_mat.size();i++)
    {
    
        cv::minMaxLoc(kpt_mat[i],&minVal,&maxVal,&minLoc,&maxLoc);
        maxLoc.x = (int)(maxLoc.x*4*input.obj.width/width_+0.5)+input.obj.x;
        maxLoc.y = (int)(maxLoc.y*4*input.obj.height/height_+0.5)+input.obj.y;
        output.vAllKeypoints.push_back({
    maxLoc,maxVal});
    }
#endif
#ifdef DRAW_PIC_KPT
    for(auto& kp:output.vAllKeypoints)
    {
    
        cv::circle(input.srcImage,kp.first,3,cv::Scalar(0,255,255),-1);
    }
#endif
}

main.cpp

int main(int argc, const char* argv[]){
    
    int gpuid=0;
    std::string model_path = "/data_1/Working/project/torch-onnx-tvm/libtorch/model/carkeypoints";
    std::string data_path = "/data_1/Working/project/torch-onnx-tvm/libtorch/data/[email protected]";
    carkeypoints::ins().init(model_path,gpuid);
    sCarkeypointInput input;
    sCarkeypointOutput output;
    cv::Mat src = cv::imread(data_path);
    input.srcImage = src;
    input.obj = cv::Rect(0,0,src.cols,src.rows);

    std::chrono::steady_clock::time_point t0 = std::chrono::steady_clock::now();
    carkeypoints::ins().process(input,output);
    std::chrono::steady_clock::time_point t1 = std::chrono::steady_clock::now();
    std::chrono::duration<double > time_used = std::chrono::duration_cast<std::chrono::duration<double >>(t1-t0);
    std::cout<<"use time: "<<std::to_string(time_used.count())<<" seconds"<<std::endl;

//    cv::imshow("src",input.srcImage);
//    cv::waitKey();
}

以使用slowFast视频分类为例介绍c++中部署libtorch模型的后处理:
lightVideoClassify.h

enum eLightStatusLabel {
    
    eLightConstant = 0, //车灯状态恒定
    eLightTwinkle = 1, //车灯状态闪烁
    eOtherLightStatus = 99 //其他
};

typedef struct Turnning_Light_Output
{
    
    eLightStatusLabel lightStatus = eOtherLightStatus;  // 0: light off , 1: light on
    float confidence = 0.0;
}Turnning_Light_Output;
class VIRlightVideoClassify {
    
public:
    VIRlightVideoClassify(){
    };
    ~VIRlightVideoClassify(){
    };
    static VIRlightVideoClassify &ins();
    int init(const std::string& modelPath, const int& gpuID);
    int process(std::vector<cv::Mat>& inputMats, Turnning_Light_Output& output);

private:
    const std::string m_modelFile = "/lightVideoClassify/lightVideoClassify.pt";
    int newHeight_ = 56;
    int newWidth_ = 56;
    int mGPUID;
    std::shared_ptr<torch::jit::script::Module> module;
    at::Tensor m_result_tensor;
};

lightVideoClassify.cpp

//
// Created by em on 20-7-28.
//
#include "lightVideoClassify.h"

VIRlightVideoClassify& VIRlightVideoClassify::ins() {
    
    static thread_local VIRlightVideoClassify obj;
    return obj;
}

int VIRlightVideoClassify::init(const std::string &modelPath, const int &gpuID) {
    
    const std::string netFilePath = modelPath + m_modelFile;
    if (access(netFilePath.c_str(), F_OK) == -1) // file or dir is not exists
    {
    
        return MODEL_ERROR;
    }
    int ret = setenv("CUDA_VISIBLE_DEVICES", std::to_string(gpuID).c_str(), 1);
    if(ret !=0)
        throw std::runtime_error("set CUDA_VISIBLE_DEVICES failed");
    c10::cuda::set_device(gpuID);
    module = torch::jit::load(netFilePath, torch::kCPU);
    module->to(at::kCUDA);  // put model to gpu
    return PROCESS_SUCCESS;
}
int VIRlightVideoClassify::process(std::vector<cv::Mat> &inputMats, Turnning_Light_Output &output) {
    
    std::vector<cv::Mat> imgs;
    for(int i = 0; i < inputMats.size(); i++){
    
        cv::Mat tmp;
        cv::resize(inputMats[i],tmp,cv::Size(newWidth_,newHeight_));
        cv::cvtColor(tmp, tmp, cv::COLOR_BGR2RGB);
        cv::Mat tmp1;
        tmp.convertTo(tmp1, CV_32F);
        cv::Scalar mean(128.0, 128.0, 128.0);
        tmp1 -= mean;
        vector<cv::Mat> images;
        cv::split(tmp1, images);
        images[0] /= 128.0;
        images[1] /= 128.0;
        images[2] /= 128.0;
        cv::merge(images, tmp1);
        imgs.push_back(tmp1);
    }
    auto img_tensor_1 = torch::CPU(torch::kFloat32).tensorFromBlob(imgs[0].data, {
    1, newHeight_, newWidth_, 3 });
    for(int j = 1; j < imgs.size(); j++){
    
        auto img_tensor_2 = torch::CPU(torch::kFloat32).tensorFromBlob(imgs[j].data, {
    1, newHeight_, newWidth_, 3 });
        img_tensor_1 = torch::cat({
    img_tensor_1,img_tensor_2},0);
    }
    img_tensor_1 = img_tensor_1.permute({
     3,0,1,2 });
    img_tensor_1 = img_tensor_1.unsqueeze(0);
    auto img_var_1 = torch::autograd::make_variable(img_tensor_1, false).to(at::kCUDA);
    at::Tensor output_image = module->forward({
    img_var_1}).toTensor();
    output_image = output_image.contiguous().toBackend(at::Backend::CPU);///tensor.size()=(1,2)

    ///输出查看tensor内容:
//    std::cout<<"output_image numel:"<<std::to_string(output_image.numel())<<std::endl;
//    std::cout<<"output_image dim :"<<std::to_string(output_image.dim())<<std::endl;
//    std::cout<<"output_image size 0:"<<std::to_string(output_image.size(0))<<std::endl;
//    std::cout<<"output_image size 1:"<<std::to_string(output_image.size(1))<<std::endl;
//    std::cout<<"output_image.sizes():"<<output_image.sizes()<<std::endl;
//    std::cout<<"output_image:"<<output_image<<std::endl;

    ///以下是模型输出后处理
    ///第一种方式:先将输出tensor转为vector,然后再使用c++内的API对vector寻找最大值
    std::vector<float > out_res(output_image.data<float>(),output_image.data<float>()+output_image.numel());
//    std::cout<<"out_res:"<<out_res<<std::endl;
    int max_index = std::max_element(out_res.begin(),out_res.end())-out_res.begin();
    output.lightStatus = (eLightStatusLabel)max_index;
    output.confidence = out_res[max_index];

    ///第二种方式:直接使用tensor的API计算tensor的最大值
//    auto max_res = torch::max(output_image,1);
//    auto max_index = std::get<1>(max_res).item<float>();
//    auto max_val = std::get<0>(max_res).item<float>();  ///tensor.item<type>()是将单个tensor值转为类型为type的c++格式值
//    output.lightStatus = (eLightStatusLabel)max_index;
//    output.confidence = max_val;

    return PROCESS_SUCCESS;
}

libtorch模型的后处理可以使用torch下的api进行操作,最后对结果进行转换,也可以直接将前向结果通过指针进行转换为c++可操作的数据结构,libtorch的后处理还包括分类、分割、检测、追踪等,后面介绍。

torch->onnx->tvm

tvm模型具有占用显存少,能比torch模型降低40%,以及提高速度。
进行转换前需要先进入pytorch1.4的环境,然后运行以下脚本。
converte_torch2onnx2tvm.py

"""
进行模型转换,torch->onnx->tvm
环境要求:tvm转torch模型必须在pytorch1.4的环境下进行,1.4下可以进行torch->onnx->tvm,
同时也可以进行torch->libtorch转换,但是c++中源码编译的libtorch库要和torch->libtorch转换时使用的pytorch版本一致
由于c++工程中使用的libtorch库是1.0,因此torch->libtorch的过程也要在pytorch1.0环境下进行
"""
import sys
#如果将编译的tvm添加到系统环境变量中不起作用,需要在此进行再次系统添加
sys.path.insert(0,'/data_1/software/use_software/tvm/tvm/topi/python/')
sys.path.insert(0,'/data_1/software/use_software/tvm/tvm/python/')
sys.path.insert(0,'/data_1/software/use_software/tvm/tvm/nnvm/')
import numpy as np
from pynvml import *     #pip install nvidia-ml-py3,显存监控
import torch.onnx
import torch.backends.cudnn as cudnn
from models_class.pose_resnet import *
import torchvision.transforms as transforms
import onnx  #需要pip 安装
import tvm #不需要pip安装,使用源码编译的
from tvm import relay
from PIL import Image

# 加载torch模型进行测试
def load_torch_model_test(img_path,model_path):
    # 初始化模型
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    cudnn.benchmark = True
    model = get_pose_net()
    model = model.cuda()
    model.to(device)

    # 加载模型权重
    model.load_state_dict(torch.load(model_path)['state_dict'])
    # 进行torch模型测试
    test_trans = transforms.Compose([transforms.Resize((256, 256)),
                                     transforms.ToTensor(),
                                     transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])

    img = Image.open(img_path).convert('RGB')
    img = test_trans(img)
    # img = Image.fromarray(np.expand_dims(img, 0))  # 扩张0维度
    imgblob = img.unsqueeze(0)  # tensor禁止进行维度删除
    imgblob = torch.autograd.Variable(imgblob).cuda()  # 对输入进行数据格式转换,np.array->tensor.cuda.float

    torch.no_grad()  # 不进行梯度计算
    model.eval()  # 使用验证模式
    heatmap = model(imgblob)
    # print(heatmap)
    return model

# 将torch模型转为libtorch模型
def gen_torch_to_libtorch(model_path, save_path):
    # 初始化模型
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    cudnn.benchmark = True
    model = get_pose_net()
    model.to(device)
    model = model.cuda()

    # 加载模型权重
    model.load_state_dict(torch.load(model_path)['state_dict'])
    # 将torch转为libtorch并保存
    example = torch.rand(1, 3, 256, 256).cuda()  # 任意设定一个输入,输入数据的大小为网络输入的大小
    traced_script_module = torch.jit.trace(model, example).eval()
    traced_script_module.save(save_path)

# 将torch模型转为tvm模型
def gen_torch_to_tvm_model(torch_path, save_libpath, save_graph_json_path, save_param_path):
    # 初始化模型
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    cudnn.benchmark = True
    model = get_pose_net()
    model.to(device)
    model = model.cuda()

    # 加载模型权重
    model.load_state_dict(torch.load(torch_path)['state_dict'])
    # 将torch转为libtorch
    example = torch.rand(1, 3, 256, 256).cuda()  # 任意设定一个输入,输入数据的大小为网络输入的大小
    traced_script_module = torch.jit.trace(model, example).eval()

    input_name = 'input_1'
    shape_list = [(input_name, example.shape)]  # 此处与onnx转tvm不同
    mod, params = relay.frontend.from_pytorch(traced_script_module, shape_list)
    target = 'cuda'  # cpu 版本改成 llvm
    target_host = 'llvm'
    ctx = tvm.gpu(0)
    with relay.build_config(opt_level=1):
        graph, lib, params = relay.build(mod,
                                         target=target,
                                         target_host=target_host,
                                         params=params)

    # 下面的函数导出我们需要的动态链接库 地址可以自己定义
    print("Output model files")
    lib.export_library(save_libpath)

    # 下面的函数导出我们神经网络的结构,使用json文件保存
    with open(save_graph_json_path, 'w') as fo:
        fo.write(graph)

    # 下面的函数中我们导出神经网络模型的权重参数
    with open(save_param_path, 'wb') as fo:
        fo.write(relay.save_param_dict(params))

# 将torch模型转为onnx模型
def gen_torch_to_onnx_model(model,save_onnx_path):
    # 转 ONNX 模型
    example = torch.randn(1, 3, 256, 256).cuda() #输入图像大小,自行设定
    input_name = ['input_1']
    output_name = ['output_1']
    torch_out = torch.onnx.export(model=model,  # model being run
                                args=example,  # model input (or a tuple for multiple inputs)
                                f=save_onnx_path,
                                input_names=input_name,
                                output_names=output_name,
                                verbose=True)  # store the trained parameter weights inside the model file   # 带参数输出)
    print("onnx convert ok")

# 将onnx模型转为tvm模型
def gen_onnx_to_tvm_model(onnx_path,save_libpath,save_graph_json_path,save_param_path):
    # 加载onnx模型, 转为TVM
    # onnx_model = onnx.load('/data_1/Working/project/torch-onnx-tvm/torch_py/res/torch_onnx_tvm/onnx/carkeypoints.onnx')
    onnx_model = onnx.load(onnx_path)

    target = 'cuda'  # cpu 版本改成 llvm
    target_host = 'llvm'
    # target = tvm.target.cuda()

    input_name = 'input_1'  # 默认和输入一致这个格式,在onnx转tvm时
    shape_dict = {
    input_name: (1, 3, 256, 256)}
    mod, params = relay.frontend.from_onnx(onnx_model, shape_dict) #容易出错

    with relay.build_config(opt_level=1):
        graph, lib, params = relay.build_module.build(mod,
                                                      target=target,
                                                      target_host=target_host,
                                                      params=params)
    # 下面的函数导出我们需要的动态链接库 地址可以自己定义
    print("Output model files")
    # libpath = "/data_1/Working/project/torch-onnx-tvm/res/torch_onnx_tvm/tvm/head_tail.so"
    lib.export_library(save_libpath) # tvm的动态库

    # 下面的函数导出我们神经网络的结构,使用json文件保存
    # graph_json_path = "/data_1/Working/project/torch-onnx-tvm/res/torch_onnx_tvm/tvm/head_tail.json"
    with open(save_graph_json_path, 'w') as fo:
        fo.write(graph)

    # 下面的函数中我们导出神经网络模型的权重参数
    # param_path = "/data_1/Working/project/torch-onnx-tvm/res/torch_onnx_tvm/tvm/head_tail.params"
    with open(save_param_path, 'wb') as fo:
        fo.write(relay.save_param_dict(params))

# 加载tvm模型进行测试
def load_tvm_model_test(libpath,graph_json_path,param_path,image_data=None):

    loaded_json = open(graph_json_path).read()
    loaded_lib = tvm.runtime.load_module(libpath)
    loaded_params = bytearray(open(param_path, "rb").read())
    ctx = tvm.gpu(0)
    m = graph_runtime.create(loaded_json, loaded_lib, ctx)
    m.load_params(loaded_params)

    # Set inputs
    dtype = 'float32'
    if image_data:
        data_tvm = tvm.nd.array(image_data.astype(dtype))  # 任意设置一个数据进行测试
    else:
        data_tvm = tvm.nd.array((np.random.uniform(size=(1,3,256,256))).astype(dtype)) #任意设置一个数据进行测试

    input_name = 'input_1'
    m.set_input(input_name, data_tvm)
    # Execute
    m.run()
    # Get outputs
    tvm_output = m.get_output(0)
    print(tvm_output)


if __name__ == "__main__":

    os.system("nvcc -V")  # 检查nvcc是否起作用

    #显存监控
    GPU_USE=0
    nvmlInit() #初始化
    handle = nvmlDeviceGetHandleByIndex(GPU_USE) #获得指定GPU的handle
    info_begin = nvmlDeviceGetMemoryInfo(handle) #获得显存信息

    #路径设置
    img_str ="/data_1/Working/project/torch-onnx-tvm/torch_py/data/[email protected]"
    model_path = "/data_1/Working/project/torch-onnx-tvm/torch_py/models/checkpoint_model_epoch_47_acc_0.949421536636013.pth"

    onnx_save_path = "/data_1/Working/project/torch-onnx-tvm/torch_py/res/torch_onnx_tvm/onnx/carkeypoints.onnx"

    libpath = "/data_1/Working/project/torch-onnx-tvm/torch_py/res/torch_onnx_tvm/tvm/carkeypoints.so"  # tvm的动态库
    graph_json_path = "/data_1/Working/project/torch-onnx-tvm/torch_py/res/torch_onnx_tvm/tvm/carkeypoints.json"
    param_path = "/data_1/Working/project/torch-onnx-tvm/torch_py/res/torch_onnx_tvm/tvm/carkeypoints.params"

    libtorch_save_path = "/data_1/Working/project/torch-onnx-tvm/libtorch/model/carkeypoints/carkeypoints.pt"

    # gen_torch_to_libtorch(model_path,libtorch_save_path)

    #加载torch模型
    model = load_torch_model_test(img_str,model_path)
    #将torch模型转为onnx模型
    gen_torch_to_onnx_model(model,onnx_save_path)
    #将onnx模型转为tvm模型 ,使用pycharm运行会报错,链接不到nvcc,需要在终端运行
    gen_onnx_to_tvm_model(onnx_save_path,libpath,graph_json_path,param_path)
    #加载tvm模型进行测试
    load_tvm_model_test(libpath,graph_json_path,param_path)

    # #输出显存使用mb
    info_end = nvmlDeviceGetMemoryInfo(handle)
    print("-"*15+"TORCH GPU MEMORY INFO"+"-"*15)
    print("       Memory Total: "+str(info_end.total//(1024**2)))
    print("       Memory Free: "+str(info_end.free//(1024**2)))
    print("       Memory Used: "+str(info_end.used//(1024**2)-info_begin.used//(1024**2)))
    print("-" * 40)

auto tune tvm

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/ZXF_1991/article/details/106097584

智能推荐

什么是内部类?成员内部类、静态内部类、局部内部类和匿名内部类的区别及作用?_成员内部类和局部内部类的区别-程序员宅基地

文章浏览阅读3.4k次,点赞8次,收藏42次。一、什么是内部类?or 内部类的概念内部类是定义在另一个类中的类;下面类TestB是类TestA的内部类。即内部类对象引用了实例化该内部对象的外围类对象。public class TestA{ class TestB {}}二、 为什么需要内部类?or 内部类有什么作用?1、 内部类方法可以访问该类定义所在的作用域中的数据,包括私有数据。2、内部类可以对同一个包中的其他类隐藏起来。3、 当想要定义一个回调函数且不想编写大量代码时,使用匿名内部类比较便捷。三、 内部类的分类成员内部_成员内部类和局部内部类的区别

分布式系统_分布式系统运维工具-程序员宅基地

文章浏览阅读118次。分布式系统要求拆分分布式思想的实质搭配要求分布式系统要求按照某些特定的规则将项目进行拆分。如果将一个项目的所有模板功能都写到一起,当某个模块出现问题时将直接导致整个服务器出现问题。拆分按照业务拆分为不同的服务器,有效的降低系统架构的耦合性在业务拆分的基础上可按照代码层级进行拆分(view、controller、service、pojo)分布式思想的实质分布式思想的实质是为了系统的..._分布式系统运维工具

用Exce分析l数据极简入门_exce l趋势分析数据量-程序员宅基地

文章浏览阅读174次。1.数据源准备2.数据处理step1:数据表处理应用函数:①VLOOKUP函数; ② CONCATENATE函数终表:step2:数据透视表统计分析(1) 透视表汇总不同渠道用户数, 金额(2)透视表汇总不同日期购买用户数,金额(3)透视表汇总不同用户购买订单数,金额step3:讲第二步结果可视化, 比如, 柱形图(1)不同渠道用户数, 金额(2)不同日期..._exce l趋势分析数据量

宁盾堡垒机双因素认证方案_horizon宁盾双因素配置-程序员宅基地

文章浏览阅读3.3k次。堡垒机可以为企业实现服务器、网络设备、数据库、安全设备等的集中管控和安全可靠运行,帮助IT运维人员提高工作效率。通俗来说,就是用来控制哪些人可以登录哪些资产(事先防范和事中控制),以及录像记录登录资产后做了什么事情(事后溯源)。由于堡垒机内部保存着企业所有的设备资产和权限关系,是企业内部信息安全的重要一环。但目前出现的以下问题产生了很大安全隐患:密码设置过于简单,容易被暴力破解;为方便记忆,设置统一的密码,一旦单点被破,极易引发全面危机。在单一的静态密码验证机制下,登录密码是堡垒机安全的唯一_horizon宁盾双因素配置

谷歌浏览器安装(Win、Linux、离线安装)_chrome linux debian离线安装依赖-程序员宅基地

文章浏览阅读7.7k次,点赞4次,收藏16次。Chrome作为一款挺不错的浏览器,其有着诸多的优良特性,并且支持跨平台。其支持(Windows、Linux、Mac OS X、BSD、Android),在绝大多数情况下,其的安装都很简单,但有时会由于网络原因,无法安装,所以在这里总结下Chrome的安装。Windows下的安装:在线安装:离线安装:Linux下的安装:在线安装:离线安装:..._chrome linux debian离线安装依赖

烤仔TVの尚书房 | 逃离北上广?不如押宝越南“北上广”-程序员宅基地

文章浏览阅读153次。中国发达城市榜单每天都在刷新,但无非是北上广轮流坐庄。北京拥有最顶尖的文化资源,上海是“摩登”的国际化大都市,广州是活力四射的千年商都。GDP和发展潜力是衡量城市的数字指...

随便推点

java spark的使用和配置_使用java调用spark注册进去的程序-程序员宅基地

文章浏览阅读3.3k次。前言spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置详细算法的使用请点击我主页列表查看版本jar版本说明spark3.0.1scala2.12这个版本注意和spark版本对应,只是为了引jar包springboot版本2.3.2.RELEASEmaven<!-- spark --> <dependency> <gro_使用java调用spark注册进去的程序

汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用_uds协议栈 源代码-程序员宅基地

文章浏览阅读4.8k次。汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用,代码精简高效,大厂出品有量产保证。:139800617636213023darcy169_uds协议栈 源代码

AUTOSAR基础篇之OS(下)_autosar 定义了 5 种多核支持类型-程序员宅基地

文章浏览阅读4.6k次,点赞20次,收藏148次。AUTOSAR基础篇之OS(下)前言首先,请问大家几个小小的问题,你清楚:你知道多核OS在什么场景下使用吗?多核系统OS又是如何协同启动或者关闭的呢?AUTOSAR OS存在哪些功能安全等方面的要求呢?多核OS之间的启动关闭与单核相比又存在哪些异同呢?。。。。。。今天,我们来一起探索并回答这些问题。为了便于大家理解,以下是本文的主题大纲:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JCXrdI0k-1636287756923)(https://gite_autosar 定义了 5 种多核支持类型

VS报错无法打开自己写的头文件_vs2013打不开自己定义的头文件-程序员宅基地

文章浏览阅读2.2k次,点赞6次,收藏14次。原因:自己写的头文件没有被加入到方案的包含目录中去,无法被检索到,也就无法打开。将自己写的头文件都放入header files。然后在VS界面上,右键方案名,点击属性。将自己头文件夹的目录添加进去。_vs2013打不开自己定义的头文件

【Redis】Redis基础命令集详解_redis命令-程序员宅基地

文章浏览阅读3.3w次,点赞80次,收藏342次。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。当数据量很大时,count 的数量的指定可能会不起作用,Redis 会自动调整每次的遍历数目。_redis命令

URP渲染管线简介-程序员宅基地

文章浏览阅读449次,点赞3次,收藏3次。URP的设计目标是在保持高性能的同时,提供更多的渲染功能和自定义选项。与普通项目相比,会多出Presets文件夹,里面包含着一些设置,包括本色,声音,法线,贴图等设置。全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,主光源和附加光源在一次Pass中可以一起着色。URP:全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,一次Pass可以计算多个光源。可编程渲染管线:渲染策略是可以供程序员定制的,可以定制的有:光照计算和光源,深度测试,摄像机光照烘焙,后期处理策略等等。_urp渲染管线

推荐文章

热门文章

相关标签