Lazy loaded image
🗒️使用Nginx Proxy Manager搭建自己的Huggingface镜像站
Words 1114Read Time 3 min
2025-3-2
2025-3-2
type
status
date
slug
summary
tags
category
icon
password

Hugging Face:AI 开源社区与开发平台

Hugging Face 是一个专注于人工智能和机器学习的开源平台,尤其以自然语言处理(NLP)领域的贡献而闻名。它已经发展成为人工智能社区中分享模型、数据集和应用的中心枢纽。

Hugging Face 的主要特点

以下是 Hugging Face 平台的几个关键特性:
  • 模型中心:托管超过 170,000 个公开可用的预训练模型,涵盖文本生成、图像分类、语音识别等多个领域。
  • Transformers 库:提供了一个强大的 Python 库,支持 PyTorch、TensorFlow 和 JAX,使研究人员和开发者能够轻松访问最先进的机器学习模型。
  • 数据集库:包含大量用于训练和评估机器学习模型的数据集。
  • Spaces:允许用户创建和分享基于 Web 的机器学习演示应用。
  • 社区与协作:促进了研究人员、开发者和企业之间的知识共享和协作。

为什么需要 Hugging Face 镜像站

在中国和某些地区,访问 Hugging Face 可能面临网络连接问题,导致模型下载速度慢或不稳定。搭建私有镜像站可以解决以下问题:
  • 提高访问速度:本地或区域内的服务器可以提供更快的下载速度。
  • 增强稳定性:避免因网络波动导致的连接中断。
  • 控制访问权限:可以为团队或组织内部提供受控的访问。
  • 减少带宽消耗:一次性下载模型后可以反复使用,无需重复从源站获取。
本文将详细介绍如何使用 Nginx Proxy Manager 搭建自己的 Hugging Face 镜像站,让您能够更高效地访问和使用这一强大的 AI 资源平台。

组件说明

部署流程

反代Huggingface主站和LFS CDN下载节点

  1. 如图配置,这里假设你用的域名是example.com
    1. notion image
  1. 前往Custom Location设置直接访问https://example.com/时判断是否有我们自己设置的cookie,没有的话,不允许访问:
    1. notion image
  1. 反代下载节点,如图配置(请自行修改你需要的location):
    1. notion image
    2. location可以自行设置,这里代表的含义是当你访问https://example.com/b3k3EnxpRbqvuomRASVE3/repos/***.bin下载LFS文件的时候,实际上访问的是https://cdn-lfs-us-1.hf.co/repos/***.bin,但是这不代表你是通过原Huggingface CDN连接下载,而是你是通过你的VPS->VPS访问文件->VPS传输回来给你的。

设置实际访问的反代链接

  1. 还是在Custom Location,如图配置:
    1. notion image
    2. proxy_redirect https://cdn-lfs-us-1.hf.co https://example.com/b3k3EnxpRbqvuomRASVE3;:修改exmaple.com为你自己设置域名,修改/b3k3EnxpRbqvuomRASVE3上一部分第三步设置的location,记得不要最后的/
    3. proxy_redirect https://huggingface.co https://example.com/jZPU8pzjCweCDUiXxGB9B/;:修改exmaple.com为你自己设置域名,修改/jZPU8pzjCweCDUiXxGB9B/此步骤设置的location。
  1. 结束。至此,当正确访问https://example.com/jZPU8pzjCweCDUiXxGB9B/后,浏览器会设置一个cookie,也就是access_granted=true,此后哪怕没有输入正确的location,也可以正常访问,因为判断到浏览器有对应的cookie。注意这个cookie是会话级的,关闭窗口一段时间后会失效,要重新访问正确的连接才可以。
上一篇
Docker搭建GitLab并使用Nginx Proxy Manager反代
下一篇
服务器太多没处用了?教你怎么利用闲置资源来猫池(C3Pool)挖矿