大模型要占你多少内存?这个神器一键测量,误差低至0.5MB,免费可用

原文来源:量子位

图片来源:由无界 AI‌ 生成

大模型训练推理要用多少内存?

打开这个网页一测便知,测量误差小至0.5MB。

比如模型bert-base-case Int8估计占用413.18 MB内存,实际占用为413.68MB相差0.5MB,误差仅有0.1%

操作也很简单,输入模型名称,选择数据类型即可。

这就是HuggingFace Space上的最新火起来工具——Model Memory Calculator,模型内存测量器,在网页端人人可体验。

要知道,跑大模型最头疼的问题莫过于:GPU内存够吗?

现在能先预估一波、误差很小,让不少人大呼“Great”!

实际推理内存建议多加20%

使用第一步,需要输入模型的名称。

目前支持搜索在HuggingFace Transformers库和TIMM库中的模型。

比如想要看GLM-6B的情况,可以输入“THUDM/chatglm-6b”。

不过有一些模型会存在限制,需要获取API token后才能开始计算,比如Llama-2-7b。

我们找了几个大模型实测,可以看到当模型规模达到百亿参数后,内存要求被直线拉高。

基础版的BERT还是对GPU相当友好滴

而在实际推理过程,EleutherAI发现需要在预测数据基础上,预留20%的内存。具体举例如下:

作者小哥热衷开源项目

最后来介绍一下带来这个项目的小哥Zach Mueller

他本科毕业于西佛罗里达大学,主修软件设计与开发,热衷开源,在GitHub有1k粉丝。之前做过很多和Fast.ai框架有关的开源项目。

传送门:

Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)