大模型的模型文件大小主要取决于参数量量化方案,具体表现如下:

1. 参数量与基础存储需求

  • 全精度(FP32):每个参数占4字节,1B参数的模型约需4GB存储空间。例如,70B参数的模型理论大小约为280GB,但实际文件可能更大(如Llama2-70B的FP16版本达141GB)。
  • 半精度(FP16/BF16):每个参数占2字节,文件大小为参数量的2倍。例如,7B参数的FP16模型约14.1GB,与理论值(7B×2B=14GB)基本一致。
  • 量化影响
    • Int8量化:每个参数占1字节,文件大小约为参数量的1倍。例如,7B模型的Int8版本约7.54GB。
    • Int4量化:每个参数占0.5字节,文件大小约为参数量的0.5倍。例如,14B模型的Int4版本仅8.37GB,显存占用约10.5GB。
  1. 不同参数规模的实际案例
  • 小模型(1.5B~14B):适合本地部署,如Int4量化的14B模型文件约8.37GB,显存占用10.5GB,可在16GB显存的显卡上运行。
  • 中大型模型(32B~70B):例如Int4量化的70B模型文件约39.6GB,需48GB显存支持。
  • 千亿级模型(如671B):全精度版本文件达1.3TB,需服务器集群运行。
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐