高哲技术博客 高哲技术博客
首页
编程
爬虫
运维
硬件
收藏
归档
关于

嘉美伯爵

前途光明,无需畏惧
首页
编程
爬虫
运维
硬件
收藏
归档
关于
  • 架构

  • 思想

  • 语言

  • 设计模式

  • 微服务

  • 数据分析

  • 人工智能

    • 基础

    • 部署

      • pytorch部署教程及相关理论理解
        • 原理
        • pytroch
        • 资料
      • torchserve使用指南
      • pytorch的生产部署方式
      • 如何在阿里云serverless中使用modelscope
    • 大模型

    • 传统模型

    • 调研

    • 落地

    • 评估

  • 区块链

  • 数据结构

  • 技术调研

  • 性能优化

  • 生产问题

  • 编程
  • 人工智能
  • 部署
fovegage
2023-06-08
目录

pytorch部署教程及相关理论理解

# 原理


torchscript
onnx


使用 grpc
1
2
3
4
5
6

# pytroch

  • batch_size: 每个batch加载多少个样本(默认: 1)
  • num_workers: 用多少个子进程加载数据。0表示数据将在主进程中加载(默认: 0)
  • local_rank: 进程内的 GPU 编号,非显式参数,这个一般由 torch.distributed.launch 内部指定。例如, rank = 3,local_rank = 0 表示第 3 个进程内的第 1 块 GPU
  • rank: rank=0为master节点,进程号
  • World_size: 进程组中的进程数,可以认为是全局进程个数
  • backend: 进程通信库, PyTorch 支持NCCL,GLOO,MPI
  • group: 所有进程的子集,用于集体通信等
  • checkpoint:是一种用时间换显存的技术,一般训练模式下,pytorch 每次运算后会保留一些中间变量用于求导,而使用checkpoint 的函数,则不会保留中间变量,中间变量会在求导时再计算一次,因此减少了显存占用,跟tensorflow 的checkpoint 是完全不同的东西

# 资料

https://www.cnblogs.com/yanshw/p/16563257.html


# m1 libtorch
https://github.com/mlverse/libtorch-mac-m1

# [源码解析] PyTorch 分布式(4)------分布式应用基础概念
https://www.cnblogs.com/rossiXYZ/p/15546837.html
1
2
3
4
5
6
7
8
#pytorch
上次更新: 2023-09-07 23:06:40
中文NLP整理及汇总
torchserve使用指南

← 中文NLP整理及汇总 torchserve使用指南→

最近更新
01
token embed和postion embed
06-10
02
k8s pod日志排查问题
10-24
03
golang内部私服建设方案
10-21
更多文章>
Theme by Vdoing | Copyright © 2018-2025 嘉美伯爵 | 鲁ICP备20001560号-4
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式