Transformers系列学习【chart 0 】hugging face使用
1 hugging face模型下载
1.1通用步骤
-
登录你的
hugging face
账号 -
找到你需要下载的模型【我这里以
openai/gpt-oss-120b
为例】 -
点击“文件及版本”,选择你需要的版本【这里以默认为例】
-
点击克隆仓库
-
查看可选克隆方式:
在克隆方式上,你能看到有两种方式可以提供克隆,一个是透过git,一个是通过命令(
CLI
)来下载,我们接下来说明这两个下载方式:
1.2 【方法一】使用命令行下载(CIL)(推荐)
-
进入你的python虚拟环境(推荐)没有的话直接用本地环境也行
-
安装
hf
依赖pip install -U "huggingface_hub[cli]"
-
复制下载连接即可,非常快【基本取决于你的带宽】
然后根据下载的信息去hub文件夹查找下载的文件就好了,这样子就能离线部署了。
1.3 【方法二】 使用git命令克隆
-
下载git【有则跳过】
- 参考这个博客 Git 详细安装教程
- 或者直接根据提示下载 git-lfs官网
-
根据命令直接下载就好【但是网速较差】
git clone https://huggingface.co/openai/gpt-oss-20b
1.4 部分模型的参考使用方式
由于hg-face
上涉及到众多模型,具体见你选定的模型的示例代码,然后将AutoProcessor.from_pretrained
的导入选择从本地文件夹导入。
注意,模型路径 一般来说 是模型的文件夹路径,里面包含模型的所有文件:

from transformers import AutoProcessor, AutoModel
from datasets import load_datasetmodel_dir_path = r'E:\modules\xxx' #YOUR MODEL PATHprocessor = AutoProcessor.from_pretrained(model_dir_path, apply_ocr=False)
model = AutoModel.from_pretrained(model_dir_path)dataset = load_dataset("data/xxx", split="train") #OFFICAL CODEexample = dataset[0]
image = example["image"]
words = example["tokens"]
boxes = example["bboxes"]encoding = processor(image, words, boxes=boxes, return_tensors="pt")outputs = model(**encoding)
last_hidden_states = outputs.last_hidden_state
1.4 参考网址:
hf