高哲技术博客 高哲技术博客
首页
编程
爬虫
运维
硬件
收藏
归档
关于

嘉美伯爵

前途光明,无需畏惧
首页
编程
爬虫
运维
硬件
收藏
归档
关于
  • 架构

  • 思想

  • 语言

  • 设计模式

  • 微服务

  • 数据分析

  • 人工智能

    • 基础

      • GPT家族常用术语汇总
      • 机器学习常用术语
      • jupyter使用整理归纳
      • colab使用教程
      • 单机多卡分布式训练
      • 机器学习踩坑汇总
      • llm大语言模型概念篇
        • 搭建方式
          • 提示词工程(基于LLM的外挂知识库)
          • 微调(垂直领域训练)
          • 单独训练
        • 术语
          • 显存
          • embeddings
          • tokenizer
          • 方式
          • zero-shot
          • Transformer
          • Decoder
          • instructor-embedding
      • 关于huggingface transformers的学习和汇总
      • 中文NLP整理及汇总
    • 部署

    • 大模型

    • 传统模型

    • 调研

    • 落地

    • 评估

  • 区块链

  • 数据结构

  • 技术调研

  • 性能优化

  • 生产问题

  • 编程
  • 人工智能
  • 基础
fovegage
2023-07-05
目录

llm大语言模型概念篇

# 搭建方式

# 提示词工程(基于LLM的外挂知识库)

# 微调(垂直领域训练)

医疗机器人
法律机器人
1
2

# 单独训练

从零到一单独训练、标注数据
1

# 术语

# 显存

int fp16
https://huggingface.co/THUDM/chatglm-6b-int4
1
2

# embeddings

embedding 一般需要使用专门的模型,用生成模型的 embedding 结果不会太好

简单的说就是一个词表,词表越大,那么返回的embedding list也会越大
1
2
3

# tokenizer

# 方式

1. 提示词工程
2. 微调
1
2

# zero-shot

# Transformer

from transformers import AutoTokenizer, AutoModel
1

# Decoder

# instructor-embedding

https://instructor-embedding.github.io/
1
#llm
上次更新: 2023-09-07 23:06:40
机器学习踩坑汇总
关于huggingface transformers的学习和汇总

← 机器学习踩坑汇总 关于huggingface transformers的学习和汇总→

最近更新
01
token embed和postion embed
06-10
02
k8s pod日志排查问题
10-24
03
golang内部私服建设方案
10-21
更多文章>
Theme by Vdoing | Copyright © 2018-2025 嘉美伯爵 | 鲁ICP备20001560号-4
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式