📢 #Gate观点任务# 第五十期精彩启程!调研Ola (OLA)项目,在Gate.io动态发布您的看法观点,瓜分$100 OLA奖励池!
💰️ 选取10名幸运参与用户,每人轻松赢取 $10 等值 $OLA 奖励!
👉 参与方式:
1.调研Ola (OLA)项目,并发表你对项目的见解。
2.带上Ola (OLA)交易链接:https://www.gate.io/trade/OLA_USDT 并注明$OLA上线日期:2024/11/15 18:00 (UTC+8)
3.推广Ola (OLA)活动:
-推广Ola (OLA) “Startup新币挖矿”,质押USDT或BTC瓜分2,100,8
大模型要占你多少内存?这个神器一键测量,误差低至0.5MB,免费可用
原文来源:量子位
图片来源:由无界 AI 生成
大模型训练推理要用多少内存?
打开这个网页一测便知,测量误差小至0.5MB。
比如模型bert-base-case Int8估计占用413.18 MB内存,实际占用为413.68MB,相差0.5MB,误差仅有0.1%。
操作也很简单,输入模型名称,选择数据类型即可。
这就是HuggingFace Space上的最新火起来工具——Model Memory Calculator,模型内存测量器,在网页端人人可体验。
要知道,跑大模型最头疼的问题莫过于:GPU内存够吗?
现在能先预估一波、误差很小,让不少人大呼“Great”!
实际推理内存建议多加20%
使用第一步,需要输入模型的名称。
目前支持搜索在HuggingFace Transformers库和TIMM库中的模型。
比如想要看GLM-6B的情况,可以输入“THUDM/chatglm-6b”。
不过有一些模型会存在限制,需要获取API token后才能开始计算,比如Llama-2-7b。
我们找了几个大模型实测,可以看到当模型规模达到百亿参数后,内存要求被直线拉高。
基础版的BERT还是对GPU相当友好滴
。
而在实际推理过程,EleutherAI发现需要在预测数据基础上,预留20%的内存。具体举例如下:
作者小哥热衷开源项目
最后来介绍一下带来这个项目的小哥Zach Mueller。
他本科毕业于西佛罗里达大学,主修软件设计与开发,热衷开源,在GitHub有1k粉丝。之前做过很多和Fast.ai框架有关的开源项目。
传送门: